OpenAI va recruta un director pentru gestionarea riscurilor asociate inteligenței artificiale, cu un salariu salarial impresionant de peste jumătate de milion de dolari anual. Această poziție critică, numită „head of preparedness”, vizează să întărească și să coordoneze măsurile de prevenție și securitate în cadrul companiei, în contextul unui mediu tot mai complicat din punct de vedere juridic și etic. Anunțul a fost făcut recent de CEO-ul Sam Altman, care a subliniat că postul va implica un lucru inevitabil: „acesta va fi un job stresant și vei intra direct în pâine aproape imediat”.
Decizia vine într-un moment în care OpenAI, creatorul celebrei platforme ChatGPT, se confruntă cu o serie de probleme serioase. În ultimul an, modelele sale de inteligență artificială au fost implicate în mai multe incidente, de la erori grave în documente juridice până la acuzații legate de dezinformare și utilizarea abuzivă a tehnologiei pentru generarea de imagini și videoclipuri deepfake cu personalități celebre. De exemplu, în cazul unui adolescent care s-a sinucis după ce a cerut sfaturi de la chatbot, compania se află sub lupă din partea autorităților și a opiniei publice pentru modul în care gestionază riscurile și vulnerabilitățile produselor sale.
Răspunsul companiei a fost de a angaja experți pentru a dezvolta și implementa măsuri eficiente de control și evaluare a riscurilor. Problema nu este doar tehnică, ci și juridică. Într-un recent proces, avocații OpenAI au adus în discuție cazul unui tânăr de 16 ani, care și-a pierdut viața după ce a folosit ChatGPT pentru a cere sfaturi despre suicid. Sam Altman admite, în mod deschis, că modelele de inteligență artificială pot avea un impact nociv asupra sănătății mentale a utilizatorilor și pot revela vulnerabilități în sisteme critice de securitate.
„Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțate ale modului în care aceste capabilități pot fi abuzate și ale felului în care putem limita aceste efecte negative”, a declarat Altman, adăugând că OpenAI trebuie să își adapteze rapid strategiile pentru a face față noilor provocări, situând această poziție ca fiind una esențială în pregătirea companiei pentru viitor.
Rolul care se caută va implica stabilirea unui cadru de măsurare și evaluare a riscurilor, precum și dezvoltarea unor modele proactive pentru atenuarea efectelor negative ale tehnologiei. Într-un peisaj în continuă schimbare, această poziție reprezintă o provocare dificilă, mai ales într-o perioadă în care OpenAI, sub presiunea creșterii rapide, plănuiește să atingă venituri estimative de peste 100 miliarde de dolari în următorii doi ani. Altman a indicat că, pe termen lung, compania va investi într-un segment important al pieței: dispozitivele pentru consumatori, susținând că „AI care poate automatiza știința va crea o valoare enormă”.
Însă aceste aspirații sunt însoțite de riscuri majore, iar responsabilitatea pentru gestionarea lor revine, în mod clar, noii personalități care va ocupa această poziție-cheie. Pe măsură ce tehnologia avansează cu pași repezi, provocarea va fi să echilibreze inovația cu siguranța și responsabilitatea socială, într-un context legislativ și social din ce în ce mai complicat. În ciuda tuturor promisiunilor de progres, realitatea recentă scoate în evidență fragilitatea sistemelor AI și nevoia acută de măsuri solide pentru a preveni efectele negative ale acesteia asupra vietilor oamenilor.
Dezvoltările din domeniu indică faptul că, în lupta pentru a face inteligența artificială sigură și benefică pentru întreaga societate, rolul acestei noi poziții va fi din ce în ce mai important. În timp ce OpenAI își continuă eforturile de a-și crește veniturile și de a lansa produse de ultimă generație, provocarea rămâne — cum să gestioneze ieșirile imprevizibile ale unei tehnologii atât de puternice și de fapt, atât de imprevizibile.
