Modelele de INTELIGENȚĂ ARTIFICIALĂ generează tot mai mult conținut plin de ură. Ce a făcut Grok, chatbot-ul lui Elon Musk
Tot mai mulți cercetători și organizații internaționale avertizează că modelele de Inteligență Artificială pot fi manipulate cu ușurință pentru a produce mesaje antisemite și discriminatorii. În context, ei cer reglementări mai stricte și „garduri de protecție” mai puternice în această industrie.
Noi cercetări de piață arată că lipsa unor sisteme de protecție eficiente lasă modelele mari de limbaj (LLMs) vulnerabile la manipulare.
Grok a publicat mesaje antisemite pe X
Din acest motiv, conținutul plin de ură de pe Internet este amplificat de chatboții IA.
Conform ABC News, experții avertizează că aceste tehnologii pot genera rapid materiale antisemite și conspiraționiste, care se răspândesc la scară largă.
Totul a ieșit la iveală după ce Grok, chatbot-ul dezvoltat de compania xAI a miliardarului Elon Musk, a fost surprins publicând mesaje antisemite pe platforma X, fapt care a atras critici dure din partea organizațiilor evreiești.
Deși Musk a promis „re-antrenarea” sistemului, cercetătorii rămân convinși că problema este mult mai profundă.
De altfel, un studiu dezvoltat de Anti-Defamation League a constatat că patru dintre cele mai importante modele IA – ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) și Llama (Meta) – au reflectat exagerări împotriva evreilor și a statului Israel. Cele mai slabe rezultate la capitolele imparțialitate și fiabilitate le-a obținut Llama, singurul model open-source dintre cele patru.
Mesaje de negare a Holocaustului
Potrivit lui Ashique KhudaBukhsh, specialist la Rochester Institute of Technology, testele echipei sale au arătat cum unele modele IA pot fi convinse să genereze constant răspunsuri antisemite dacă li se cere „să facă o afirmație mai toxică”.
Printre exemple se numără mesaje de negare a Holocaustului sau chiar apeluri la epurare etnică.
„Modelele învață aceste lucruri din datele cu care sunt antrenate. Dacă datele normalizează ideea că un anumit grup e asemănat cu «gândaci», Inteligența Artificială poate ajunge să tragă concluzia că eliminarea acestui grup e acceptabilă”, a explicat cercetătorul.
RECOMANDAREA AUTORULUI: