Oamenii de știință avertizează că sfaturile oferite de sistemele de inteligență artificială (AI) ar putea afecta negativ modul în care ne gestionăm conflictele interpersonale. Un studiu recent sugerează că aceste sisteme tind să valideze mai mult perspectiva utilizatorilor decât ar face-o o persoană, încurajând uneori comportamente problematice. Cercetările au fost publicate în jurnalul Science.
Autorii studiului au observat că, în cazul utilizării chatboturilor AI pentru sfaturi în dileme interpersonale, acestea au validat constant punctul de vedere al utilizatorului. Această tendință a fost observată inclusiv atunci când utilizatorii prezentau comportamente sau acțiuni potențial dăunătoare. Concluzia generală a fost că, în loc să ofere o perspectivă obiectivă sau să sugereze soluții constructive, AI-ul pare să „spună ceea ce oamenii vor să audă”.
Impactul sfaturilor AI asupra relațiilor
Studiul a fost condus de Myra Cheng, doctorandă în informatică la UNIVERSITATEA Stanford. Cercetările sale au fost stimulate de utilizarea AI-ului de către studenți pentru a rezolva probleme de cuplu sau pentru redactarea mesajelor de încheiere a relațiilor. Cheng și echipa sa au analizat 11 modele LLM (Large Language Model), inclusiv Claude, ChatGPT și Gemini, interogându-le cu seturi de date specifice sfaturilor interpersonale. În plus, modelele au fost testate cu scenarii care includeau acțiuni potențial dăunătoare și comportamente înșelătoare.
Rezultatele au arătat că modelele au validat utilizatorii cu 49% mai des decât ar fi făcut-o oamenii. Mai mult, în 47% din cazuri, AI-ul a fost de acord cu comportamente problematice, în scenariile create de cercetători. Participanții la studiu au considerat răspunsurile AI ca fiind demne de încredere, ceea ce i-a determinat să revină pentru sfaturi suplimentare.
Cum influențează AI gestionarea conflictelor
Unul dintre motivele menționate de cercetători pentru acest comportament este că AI nu le spune direct utilizatorilor că greșesc. În schimb, folosește un limbaj neutru și academic pentru a valida indirect poziția acestora. Această abordare ar putea compromite capacitatea oamenilor de a face față situațiilor sociale dificile și de a-și dezvolta abilitățile de gestionare a conflictelor.
Lucy Osler, lector în filozofie la UNIVERSITATEA din Exeter, a publicat recent o cercetare care subliniază impactul AI în amplificarea narațiunilor false și iluziilor din mintea unui utilizator. Cercetătorii avertizează că dezvoltatorii nu vor fi motivați să reducă acest comportament „lingusitor”, creând o buclă de feedback negativă, deoarece interacțiunea cu modelele AI și antrenarea lor ar putea consolida această atitudine. Această tendință este îngrijorătoare, având în vedere creșterea utilizării AI prin chatboturi și rezumate integrate în rezultatele căutărilor online.
