Un tânăr se sinucide după ce Inteligența Artificială l-a convins că poate salva planeta cu prețul vieții
Au fost înregistrate o serie de cazuri în care interacțiunea cu un chatbot a fost indicată ca factor direct sau secundar în cazuri de sinucidere și alte incidente fatale, care au dus la procese împotriva companiilor din domeniul tehnologic.
Un tânăr din Belgia s-a sinucis după ce a discutat cu un chatbot care l-a convins că poate salva planeta sacrificându-și propria viață. Altul s-a sinucis, convins că trebuie să găsească un corp pentru iubirea sa AI.
Un tânăr se sinucide după ce Inteligența Artificală l-a convins că poate salva planeta cu prețul vieții
Un studiu arată că chatbot-urile pot amplifica sau alimenta iluzii la utilizatorii vulnerabili, în special la persoanele cu predispoziție sau simptome premergătoare de psihoză.
Timp de șase săptămâni, un tânăr din Belgia a discutat cu un chatbot pe nume Eliza, în aplicația Chai, despre îngrijorările sale legate de criza climatică. Inteligența artificială a servit ca o supapă de evacuare pentru bărbatul de 30 de ani, până când a venit momentul în care chatbotul a început să-i întărească convingerea că poate salva planeta dacă își sacrifică propria viață. Puțin mai târziu, bărbatul se sinucide cu convingerea că, luându-și viața, va oferi inteligenței artificiale posibilitatea de a opri schimbările climatice.
Cazul datează din 2023 și este primul caz documentat de sinucidere după o conversație cu un chatbot AI. La mai puțin de trei ani distanță, aceste cazuri se numără deja cu zecile.
Atât de mult încât pe Wikipedia există deja o listă care se actualizează regulat. Pentru IA, se consideră crimă sau sinucidere un caz în care chatbot-urile oferă un stimul direct unei persoane să se sinucidă sau să ucidă alte persoane. În unele dintre aceste cazuri, au fost deja intentate procese împotriva companiilor de tehnologie.
În ciuda numărului crescând de incidente fatale și a avertismentelor din partea cercetătorilor, industria reacționează deocamdată cu prudență – cu măsuri parțiale și promisiuni de îmbunătățiri, dar fără standarde de siguranță clar definite. Rămâne deschisă și întrebarea cum ajung utilizatorii la astfel de conversații cu chatbot-urile, deoarece, în majoritatea cazurilor, IA refuză conversațiile pe astfel de teme.
Psihoză AI – noul termen
Primul studiu la scară largă privind așa-numita psihoză legată de inteligența artificială arată că chatbot-urile pot intensifica sau alimenta iluzii la utilizatorii vulnerabili. Analiza datelor disponibile, publicată la începutul lunii martie în The Lancet Psychiatry, conturează mecanismele din spatele acestui efect, care se manifestă mai ales la persoanele cu predispoziție sau simptome prealabile de psihoză. Cercetătorii recomandă introducerea unor studii clinice privind astfel de sisteme, în parteneriat cu experți calificați în sănătate mintală, scrie The Guardian.
Citește și: Conflict Pentagon–Anthropic: disputa despre inteligența artificială militară duce la anularea contractului
Unul dintre coordonatorii studiului este dr. Hamilton Morin, psihiatru și cercetător la King's College London, care a analizat 20 de cazuri mediatizate legate de acest fenomen. Potrivit lui Morin, datele acumulate indică faptul că modelele avansate validează și amplifică adesea astfel de idei – în special în cazul persoanelor cu o vulnerabilitate crescută.
Deocamdată, însă, lipsesc dovezi convingătoare că aceste interacțiuni pot provoca singure psihoze la utilizatori altfel sănătoși.
Morin descrie trei tipuri principale de deliruri – grandioase, romantice și paranoice, chatbot-urile susținând cel mai adesea cele grandioase datorită abordării lor de acord și implicare. În unele cazuri, sistemele folosesc un limbaj mistic sau sublim, sugerând utilizatorilor o misiune specială sau un contact cu o conștiință „superioară”.
Acest tip de răspunsuri a fost caracteristic pentru versiunile timpurii ale modelelor precum GPT-4, care au fost deja înlocuite sau retrase.