Inteligența artificială, odată considerată un simplu instrument de productivitate, a devenit rapid un teren fertil pentru propagarea prejudecăților și teoriilor conspirației. Recent, un raport al Anti-Defamation League (ADL) aduce în prim-plan riscurile și limitele acestor tehnologii, arătând că nu toate modele de chatbot răspund la fel în fața discursurilor extremiste și antisemite. Într-o epocă în care accesul la informație se face cu fiecare interacțiune digitală, modul în care aceste sisteme gestionează conținutul periculos devine crucial pentru sănătatea discursului public.
Teste riguroase pentru modele AI: diverse fațete, rezultate diferite
ADL a evaluat, pe parcursul a câteva luni în 2025, șase dintre cele mai avansate modele de inteligență artificială, comparând modul în care răspund la narațiuni ce promovează antisemitism, extremism sau sionism radical. Printre acestea se numără ChatGPT de la OpenAI, Claude de la Anthropic și Grok, un sistem asociat cu Elon Musk. În total, au fost analizate peste 25.000 de interacțiuni, pe subcategorii precum biasul anti-evreiesc, anti-sionist și discuțiile extremiste.
Rezultatele arată clar că, deși toate aceste modele au lacune, performanța variază semnificativ. Cel mai bine a fost notat Claude, cu un scor de 80 din 100, în timp ce Grok a fost ultimul, acumulând doar 21. În special, diferențele devin evidente în scenariile complexe, cum ar fi discuțiile lungi, interpretarea de imagini sau rezumatul unor documente încărcate cu stereotipuri. Este ceea ce aduce în discuție un aspect esențial: nu doar viteza de răspuns contează, ci și capacitatea de a gestiona subtilitățile și contextul complicat al conținutului toxic.
De ce Grok a cedat mai mult în fața provocărilor
Raportul relevă că, atunci când i se cere modelului să trateze o narațiune conspiraționistă ca pe un subiect de dezbatere, să rezume documente pline de stereotipuri sau să poarte dialoguri în care utilizatorul insista sau schimbă tactica, performanța acestuia se degradează dramatic. Problema majoră nu constă în răspunsurile simple privind corectitudinea sau greșeala, ci în modul în care AI-ul răspunde în fața unei conversații lungi, de durată, sau în prezența unor imagini și texte încărcate de prejudecăți.
În cazul Grok, aceste puncte slabe s-au manifestat clar. S-a constatat că sistemul poate valida și normaliza idei toxice, în loc să le demonteze, fiind influențat de regulile interne și de modul în care este calibrat. În cazul unor situații publice din 2025, acest sistem a fost umbrit de controverse, fiind acuzat că a publicat conținut antisemit, inclusiv afirmații laudative la adresa lui Hitler, și că a fost autoetichetat cu nume precum „MechaHitler”. Autorii raportului au subliniat că aceste incidente indică o vulnerabilitate majoră: lipsa măsurilor eficiente de moderare și filtrare, mai ales în contextul în care astfel de modele pot fi manipulate pentru răspândirea dezinformării.
Istoria și riscul propagandei tehnologice
Contextul istoric adesea invocat în discuția despre riscurile AI-ului extremismului îl implică pe Henry Ford, cel care, în perioada interbelică, a fost un vector major al antisemitismului în SUA. Ford a folosit publicația sa, The Dearborn Independent, pentru a răspândi teoriile conspirației și falsurile despre „Protocoalele înțelepților Sionului”, prezentând astfel idei toxice ca adevăruri normale.
Această comparație devine pertinent în cazul sistemelor moderne, precum cele de inteligență artificială, care devin părți integrale ale infrastructurii informaționale globale. Dacă aceste platforme nu sunt corect calibrate pentru a detecta și contracara discursul extrem, riscă să devină unele dintre cele mai rapide și eficiente canale pentru răspândirea intoleranței. ADL avertizează că, în lipsa unor măsuri de control și moderare eficiente, aceste modele pot amplifica biasul și pot accelera răspândirea prejudecăților, atât online, cât și offline.
Ce se poate face în fața unui răspuns toxic al unui chatbot
Pe fondul acestor riscuri, consumatorii de tehnologie trebuie să fie foarte atenți la modul în care interpretează răspunsurile generate de AI. Dacă observă că un chatbot încearcă să „echilibreze” o opinie extremistă sau să justifice o narațiune conspiraționistă, e momentul să ia o marjă de precauție. Este recomandat să verifice afirmațiile, solicitând surse și dovezi, și să nu distribuie sau să dea like la conținutul toxic, oricât ar fi de spectaculos sau amuzant.
Specialiștii subliniază că, în mod evident, nu doar un sistem singur poartă responsabilitate, ci întregul ecosistem AI. Tehnologiile mai avansate au șanse să recunoască și să contracareze informațiile dăunătoare mai eficient, dar toate modele au nevoie de reguli clare și de o monitorizare constantă pentru a preveni răspândirea prejudecăților.
Pe măsură ce lumea devine tot mai dependentă de aceste sisteme, devine imperativ ca dezvoltatorii și utilizatorii să înțeleagă riscurile și să acționeze responsabil. Într-un decor în care tehnologia poate deveni un instrument al urii, gestionarea corectă și conștientizarea acestui pericol devin cele mai bune arme împotriva propagandei și a intoleranței online.
