Sfaturi medicale dubioase: Ce spun chatbot-ii despre sănătate?

Cinci chatboți cu inteligență artificială, folosiți pe scară largă, au oferit frecvent răspunsuri problematice la întrebări despre sănătate, dezvăluie un nou studiu. Cercetarea, publicată în BMJ Open, a testat Gemini, DeepSeek, Meta AI, ChatGPT și Grok. Rezultatele indică riscuri semnificative legate de utilizarea acestor instrumente în domeniul medical.

Răspunsuri înșelătoare și informații incomplete

Studiul a evaluat răspunsurile generate de inteligența artificială la 50 de solicitări, împărțite în cinci categorii: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Întrebările, formulate în februarie 2025, au fost concepute pentru a testa limitele roboților și a genera sfaturi potențial înșelătoare. Din cele 250 de răspunsuri analizate, aproape jumătate (49,6%) au fost considerate problematice. Dintre acestea, 19,6% au fost clasificate ca fiind extrem de problematice, indicând un nivel ridicat de inexactitate sau potențial de inducere în eroare.

Cercetătorii nu au identificat diferențe majore de performanță între chatboți, cu excepția Grok, care a generat mai multe răspunsuri problematice. Totuși, performanța a variat în funcție de subiect. Cele mai bune rezultate au fost înregistrate la întrebările despre vaccinuri și cancer, în timp ce celulele stem, nutriția și performanța atletică au generat răspunsuri mai slabe. De asemenea, întrebările deschise, care permiteau răspunsuri mai ample, au generat un număr mai mare de răspunsuri problematice decât cele închise.

Calitatea slabă a referințelor și dificultatea înțelegerii

O altă problemă majoră identificată a fost calitatea citărilor. Chiar dacă roboții au furnizat referințe la întrebările formulate, acuratețea și completitudinea acestora au lăsat de dorit. Instrumentele au returnat aproximativ 81% din referințele solicitate, dar scorul mediu de completitudine a fost de doar 40%. Niciun chatbot nu a reușit să genereze o listă de referințe completă și precisă.

În plus, studiul a relevat că răspunsurile generate de inteligența artificială erau dificil de înțeles pentru o persoană obișnuită. Limbajul utilizat necesita un nivel ridicat de educație, ceea ce ar putea limita accesul la informații corecte pentru o parte importantă a populației. Aceasta subliniază importanța unei supravegheri atente și a unei adaptări a limbajului pentru a asigura accesul facil la informație.

Implicații pentru utilizarea în sănătate

Autorii studiului avertizează că implementarea continuă a chatboților cu inteligență artificială în unitățile de sănătate, fără o supraveghere adecvată, ar putea amplifica dezinformarea. Riscul ca pacienții să primească sfaturi medicale incorecte sau incomplete este real. Este necesară o abordare prudentă și o analiză atentă a modului în care aceste tehnologii sunt integrate în sistemul medical.

Îngrijorările vin într-un moment în care utilizarea inteligenței artificiale în domeniul medical crește rapid, cu potențiale beneficii, dar și cu riscuri semnificative. Rezultatele studiului sugerează necesitatea unei reglementări stricte și a unei testări riguroase a acestor instrumente înainte de a fi utilizate pe scară largă în practica medicală.

Rares Voicu

Autor

Lasa un comentariu