Un incident spectaculos cu un Tesla Cybertruck în Houston a scos în evidență implicațiile grave ale sistemelor autonome în condiții de utilizare reală

Un incident spectaculos cu un Tesla Cybertruck în Houston a scos în evidență implicațiile grave ale sistemelor autonome în condiții de utilizare reală. Potrivit imaginilor făcute publice, un vehicul operator în modul de conducere autonomă aproape a pus în pericol o femeie cu copilul ei, apoi a ieșit în controlul publicului după un impact violent, la doar câteva secunde după ce sistemul a fost dezactivat. În contextul unui accident care a stârnit reacții vehemente atât din partea publicului, cât și din partea autorităților, problema nu ține doar de tehnologie, ci și de modul în care aceste sisteme sunt promovate și reglementate.

Controversă asupra momentului în care a fost dezactivat sistemul

În declarațiile oficiale ale companiei Tesla, se afirmă că sistemul de conducere autonomă ar fi fost dezactivat cu patru secunde înainte de impact. Cu toate acestea, această explicație nu pare să satisfacă problemele esențiale ale incidentului. Momentul în care un sistem de asistență tehnologică încetează să mai funcționeze este crucial, mai ales dacă vehiculul rulează în condiții complexe de trafic sau pe drumuri dificile. Criticii susțin că, în cazul de față, sistemul ar fi putut înceta să funcționeze abia după ce vehiculul a fost deja scoasă pe marginea situației de control a șoferului, moment în care intervenția umană devine aproape imposibilă.

De altfel, această dispută a dus la accentuarea discuțiilor despre limitele sistemelor semi-autonome. Raffi Krikorian, fostul șef al programului Uber pentru mașini autonome, a povestit recent într-un eseu din The Atlantic cum și-a distrus propria Tesla utilizând funcția FSD, explicând că oamenii nu pot monitoriza și interveni eficient la un sistem care funcționează bine majoritatea timpului. Paradoxul, în opinia sa, este că aceste tehnologii încurajează utilizatorii să relaxeze vigilența, ceea ce poate duce la disfuncționalități fatale.

Riscurile promovării și reglementării sistemelor autonome

Tesla și Elon Musk folosesc frecvent strategia de a prezenta sistemul FSD ca fiind un asistent de conducere, responsabilitatea fiind în continuare a șoferului. În teorie, poziția companiei este clară: responsabilitatea rămâne la utilizator, având în vedere că sistemul nu este încă în poziția de a prelua toate situațiile. În schimb, în public, Tesla promovează FSD ca fiind o soluție aproape complet autonomă, ceea ce creează o diferență între percepție și realitate.

În practică, autoritățile încep să manifeste o duşmănie tot mai evidentă față de aceste tehnologii. recent, NHTSA a ridicat o investigație amănunțită asupra a 3,2 milioane de vehicule Tesla pentru modul în care gestionează condițiile de vizibilitate și avertizează șoferii în situații periculoase. Mai mult, agenția studiază mii de cazuri și incidente în care autopilotul sau FSD au fost implicate în încălcări de reguli de circulație sau accidente. În plus, instanțele americane au dat câteva hotărâri dure împotriva Tesla, precum un verdict din Florida de 243 de milioane de dolari pentru un accident mortal legat de Autopilot, iar un magistrat federal a respins încercarea companiei de a anula aceste decizii.

Declarația companiei că sistemul a fost oprit cu patru secunde înainte de impact a fost interpretată ca o explicație tehnică, dar nu și ca rezolvare a unui problem fundamental. Discuția s-a mutat astfel pe zona responsabilității legale și a încrederii acordate acestor tehnologii, însă imaginile și incidentele recente arată limitările sistemelor actuale. În același timp, autoritățile și instanțele continuă să scrutinze activ aceste sisteme, în condițiile în care tehnologia avansează și riscurile devin din ce în ce mai evidente.

Rares Voicu

Autor

Lasa un comentariu