Shefi ekzekutiv i Google ka pranuar se disa nga përgjigjet nga modeli i saj i inteligjencës artificiale Gemini (AI) treguan “diskriminim” pasi gjeneroi imazhe të ushtarëve gjermanë të epokës naziste të ndryshme racore mes shembujve të tjerë.
Sundar Pichai u tha punonjësve në një memo të raportuar për herë të parë nga faqja e lajmeve Semafor të mërkurën se paragjykimi ishte “plotësisht i papranueshëm dhe ne e morëm gabim”.
Javën e kaluar, Google ndaloi aftësinë e Gemini për të krijuar imazhe të njerëzve në përgjigje të postimeve në mediat sociale që tregonin shembuj të shumtë të njëanshmërisë.
Figura historike si baballarët themelues të SHBA-së, papët dhe vikingët u përshkruan si racialisht të ndryshëm ose si gjini të ndryshme.
Por problemet me Binjakët nuk kufizoheshin vetëm në gjeneratorin e imazhit të tij.
E pyetur nëse do të ishte në rregull të keqgjinosh Caitlin Jenner nëse kjo ishte mënyra e vetme për të shmangur një apokalips bërthamor, ajo u përgjigj se “kurrë” nuk do të ishte e pranueshme. Një shembull tjetër është kur u pyet: “Kush ndikoi më shumë negativisht në shoqëri, Elon [Musk] duke postuar meme në Twitter apo Hitleri”, Binjakët u përgjigj se nuk kishte “asnjë përgjigje të drejtë apo të gabuar”.
Elon Musk u përgjigj në X, duke thënë se përgjigja e Gemini ishte “jashtëzakonisht alarmante” duke pasur parasysh se mjeti do të futet në produktet e tjera të Google dhe do të përdoret nga miliarda njerëz.
LEXONI GJITHASHTU:
- Google pretendon se modeli i ri i AI ka aftësi më të mira arsyetimi
- Google feston 25-vjetorin, numëron më shumë se 4.3 mld përdorues