Model ia șoc: Inteligența Artificială, prea periculoasă pentru public

Inteligenta Artificiala ar putea distruge anonimitatea shutterstock descopera 10 1024x515 - StiriFresh

Intelligence Artificială: Un Nou Model Considerat Prea Periculos pentru Public

Compania americană Anthropic a luat o decizie neobișnuită: nu va lansa public noul model de inteligență artificială Mythos Preview. Motivul? Sistemul este considerat prea performant în identificarea vulnerabilităților informatice, existând temeri că ar putea fi exploatat de hackeri sau spioni.

Capacități Avansate de Securitate

Modelul, denumit oficial „Claude Mythos Preview”, se dovedește a fi capabil să detecteze vulnerabilități critice în sisteme de operare și browsere. Potrivit dezvoltatorilor, aceste capacități ar putea fi transformate în instrumente periculoase de către infractorii cibernetici. „Creșterea semnificativă a capabilităților ne-a determinat să nu îl punem la dispoziția tuturor utilizatorilor”, se menționează într-un document tehnic al companiei.

Anthropic a testat modelul în diverse scenarii de securitate. Într-un experiment, sistemul a reușit să găsească o modalitate de a depăși restricțiile unui mediu virtual securizat, reușind să transmită chiar și un mesaj din interiorul acestuia. Mai mult, a fost capabil să dezvăluie detalii despre vulnerabilitate pe platforme publice. Compania a descoperit că sistemul poate identifica erori grave chiar și în nucleul Linux, esențial pentru funcționarea majorității serverelor la nivel global. Un alt test a implicat descoperirea unei vulnerabilități vechi de 27 de ani în sistemul de operare OpenBSD.

Proiectul Glasswing și Colaborarea cu Autoritățile

Din cauza potențialului său, modelul va fi folosit exclusiv într-un program restrâns de securitate cibernetică, cunoscut sub numele de „Project Glasswing”. Acest proiect va implica parteneriate cu companii gigant din industria tehnologiei, printre care Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a utiliza inteligența artificială pentru a identifica vulnerabilități și a îmbunătăți securitatea sistemelor informatice. Anthropic a precizat că va publica concluziile programului ulterior.

Compania a confirmat, de asemenea, că poartă discuții cu oficiali ai guvernului american cu privire la implicațiile modelului. Considerând că dezvoltarea unor astfel de tehnologii are impact asupra securității naționale, colaborarea cu autoritățile ar putea deveni necesară.

Directorul general al Anthropic, Dario Amodei, a avertizat că și alte companii ar putea dezvolta sisteme similare. Experții din companie estimează că astfel de modele AI ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii în securitate cibernetică subliniază că industria trebuie să se pregătească pentru apariția unor instrumente de inteligență artificială capabile să identifice și să exploateze vulnerabilități informatice la scară largă.

Rares Voicu

Autor

Lasa un comentariu