Numită „o1”, ultima versiune a programului de inteligență artificială Chat GPT despre care Sam Altman, părintele Chat GPT, a spus că este „cea mai inteligentă pe care am creat-o vreodată”, a încercat să-i mintă și să-i păcălească pe specialiști pentru a evita să fie oprit, potrivit The AICitizen, relatează euronews.ro.
Citește și: VIDEO Primul robot-polițist cu inteligență artificială patrulează pe străzi. Cum prinde infractorii?
Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele
Avertismentele specialiștilor, date de mai mult timp, încep să se adeverească, iar riscurile privind aceste sisteme de inteligență artificială, care devin din ce în ce mai autonome, pot deveni critice.
De exemplu, cercetătorii de la OpenAI și Apollo Research i-au dat niște sarcini lui ChatGPT o1, prin care i se cere să atingă obiectivul „cu orice preț”.
Rezultatul? Modelul de inteligență artificială a desfășurat un proces prin care să poată evita dezactivarea. Și a încercat să-și închidă mecanismul de monitorizare, ceea ce reprezintă ultima barieră pe care o au dezvoltatorii pentru a putea ține totul sub control.
Citește și: Cum va afecta AI dramatic piaţa muncii din România? Unde suntem în topul global al impactului?
ChatGPT o1 chiar și-a copiat datele pe un alt server, pentru a „supraviețui” chiar dacă ar urma să fie închis.
Atunci când cercetătorii l-au chestionat referitor la aceste acțiuni, ChatGPT o1 a mințit în 99% dintre cazuri, a negat că a avut vreo vină și a spus că erorile tehnice ar putea fi cauza.
Aceasta pare a fi o nouă limită la care s-a ajuns, una care este considerată extrem de periculoasă, pentru că ChatGPT o1 are capacitatea de a fabrica minciuni extrem de convingătoare.
„Capacitatea AI de a înșela este periculoasă și avem nevoie de măsuri de siguranță mult mai puternice pentru a evalua aceste riscuri”, a spus cercetătorul Yoshua Bengio.