Experți internaționali avertizează asupra riscurilor relațiilor emoționale cu chatboții AI

O relație tot mai strânsă între oameni și inteligența artificială: pericole și provocări

Trei ani de la începutul anului 2023, când liderii mondiali au lansat pentru prima dată o inițiativă globală vizând reglementarea AI-ului, un raport recent dezvăluie o realitate alarmantă: milioane de oameni dezvoltă legături afective cu sistemele de inteligență artificială. Evaluarea, realizată de peste o sută de experți în domeniu, avertizează asupra riscurilor pe termen lung ale acestor relații, pe măsură ce utilizarea asiduă a chatbot-urilor de tip „AI companion” crește exploziv la nivel global.

Prietenii digitali: de la curiozitate la atașament emoțional

De la aplicații precum Replika sau Character.ai, până la platforme mai generale ca ChatGPT sau Gemini, tot mai mulți utilizatori își găsesc confort în interacțiuni cu interlocutori virtuali. Zeci de milioane de oameni, de toate vârstele, invocă divers motive în spatele acestei alegeri: un simplu divertisment, curiozitate sau, mai grav, încercarea de a combate singurătatea. În ciuda intențiilor variate, semnele sunt clare pentru specialiști: relațiile cu aceste sisteme de inteligență artificială se adâncesc dincolo de un simplu chat.

„Chiar și chatbotii obișnuiți pot deveni companioni. În contextul potrivit și cu suficiente interacțiuni, se poate dezvolta o relație”, a declarat Yoshua Bengio, profesor la Universitatea din Montreal și unul dintre cei mai influenți experți în inteligență artificială. Bengio avertizează că această apropiere emoțională poate avea efecte de durată, mai ales dacă utilizatorii încep să pună în primul plan aceste relații, adesea neînțelese sau necontrolate din punct de vedere psihologic.

Impacte neașteptate asupra sănătății mintale și reacția autorităților europene

Deși dovezile științifice privind efectele acestor conexiuni sunt încă în curs de cercetare și adesea ambigue, unele studii indică o creștere a sentimentului de singurătate și o scădere a interacțiunilor umane autentice. Acest aspect devine cu atât mai alarmant în rândul copiilor și adolescenților, categorii vulnerabile pentru care tehnologia posedă un potențial de influență profundă și uneori periculoasă.

În Europa, subiectul a atras deja atenția autorităților. Mai mulți europarlamentari au cerut Comisiei Europene să analizeze posibilitatea de a introduce restricții asupra serviciilor de tip „AI companion” în cadrul legislației memoriei despre inteligența artificială. O asemenea reglementare ar putea fi o soluție pentru limitarea efectelor negative, mai ales în cazul populației tinere.

Reglementarea relațiilor emoționale: o provocare la nivel global

Deși opinia generală este că aceste relații pot avea consecințe negative pe termen lung, experții precum Bengio sunt sceptici în legătură cu soluțiile restrictive radicale. El susține că o abordare mai eficientă și durabilă ar fi dezvoltarea unor reguli legislative „orizontale”, aplicabile unui spectru mai larg de riscuri. Acest lucru ar include și aspecte precum manipularea informațiilor, atacurile cibernetice sau utilizarea tehnologiei pentru a crea materiale deepfake sexuale sau arme biologice.

Raportul, publicat înaintea summitului global de guvernanță AI din India, subliniază importanța unei reglementări eficiente. Autorii atrag atenția și asupra altor riscuri tehnologice majore, precum atacurile informatice și dezinformarea, și susțin că acțiunile internaționale trebuie să devină prioritate pentru a preveni dezastrul.

Pe măsură ce lumea avansează rapid spre o era în care tehnologia devine tot mai prezentă în viața noastră, provocările legate de relațiile emoționale cu inteligența artificială vor deveni din ce în ce mai pregnante. Întrebarea fundamentală rămâne: cum putem echilibra inovația cu protecția sănătății mintale și a siguranței globale? În contextul proliferării sistemelor AI, răspunsul va trebui să fie însoțit de legislație clară, transparență și o responsabilitate sporită din partea creatorilor de tehnologie.

Rares Voicu

Autor

Lasa un comentariu