Microsoft, una dintre cele mai mari companii din domeniul tehnologiei, a decis să-și actualizeze termenii de utilizare pentru serviciul Copilot, un instrument de inteligență artificială destinat în special utilizatorilor corporativi. Actualizarea a fost realizată pe 24 octombrie 2025 și a atras critici din partea utilizatorilor și specialiștilor, în special din cauza avertismentelor clare referitoare la limitele și riscurile utilizării AI-ului.
Microsoft a specificat în noii termeni de utilizare că „Copilot este destinat exclusiv divertismentului”, și le-a recomandat utilizatorilor să nu se bazeze pe acest serviciu pentru sfaturi importante. În plus, avertismentul precizează că „Poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut. Nu vă bazați pe Copilot pentru sfaturi importante. Utilizați Copilot pe propria răspundere” — un limbaj destinat să limiteze responsabilitatea companiei în cazul unor eventuale probleme.
Purtătorul de cuvânt al Microsoft a declarat pentru PCMag că aceste formulări vor fi modificate. „Pe măsură ce produsul a evoluat, acel limbaj nu mai reflectă modul în care Copilot este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare”, a explicat reprezentantul companiei.
Critici și explicații din partea industriei
Reacțiile negative din partea publicului și a experților nu au întârziat să apară. De altfel, tehnologia și AI-ul au fost criticate adesea pentru lipsa de claritate în ceea ce privește limitele serviciilor. Tom’s Hardware remarcă faptul că Microsoft nu este singura companie care folosește avertismente de acest gen pentru serviciile sale de inteligență artificială.
De exemplu, atât OpenAI, cât și xAI, divizie a lui Elon Musk, au implementat avertismente similare pentru utilizatori. Acestea le spun clar utilizatorilor că rezultatele generate de AI-urile respective nu trebuie considerate „adevăr absolute”. În cazul OpenAI, utilizatorii sunt informați că „nu trebuie să consideri rezultatele ca fiind singurul serviciu de adevăr sau informații factuale”, ceea ce indică o conștientizare tot mai crescută a impactului limitat al AI-ului în furnizarea de informații exacte și de încredere.
Departe de a fi doar o problemă de limbaj, această tendință reflectă o conștientizare tot mai amplă în industrie privind responsabilitatea față de utilizatori. În special în cazul unor servicii extrem de integrate în mediul de business, avertismentele devin o parte importantă a politicii de utilizare pentru a evita posibile incidente sau reclamații legale.
Rolul și limitele AI-ului în mediul de afaceri
Progresele în domeniul inteligenței artificiale au adus beneficii evidente în automatizarea proceselor și în crearea de instrumente pentru creșterea productivității, însă aceste tehnologii trebuie gestionate cu precauție. În cazul Copilot, Microsoft a fost nevoit să clarifice public că serviciul trebuie utilizat cu reticență, însă criticii se întreabă dacă astfel de avertismente nu ar putea reduce încrederea utilizatorilor în aceste soluții.
Specialiști și utilizatori afirmă că o comunicare transparentă cu privire la limitele AI-ului ar trebui să fie prioritatea principală a companiilor care îl oferă. În lipsa unei înțelegeri clare, riscul apariției unor situații problematic poate crește, mai ales în mediul de afaceri, unde deciziile bazate pe informații eronate pot avea consecințe majore.
Pe 8 noiembrie 2025, Microsoft a anunțat că va introduce o serie de actualizări la termenii de utilizare ale Copilot, menite să reflecte mai bine modul actual de utilizare și să ofere o comunicare mai clară despre limitările serviciului. Rămâne de urmărit dacă aceste măsuri vor reuși să întărească încrederea utilizatorilor și să minimizeze eventualele riscuri legale sau operaționale.
