Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele

DE Mircea Neacșu | Actualizat: 15.12.2024 - 09:24
Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele - Foto: Profimedia Images - Imagine cu rol ilustrativ
Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele - Foto: Profimedia Images - Imagine cu rol ilustrativ

Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. I-a uimit pe specialiști, a învățat să mintă și să înșele și a dat semne că nu mai ascultă ordinele.

SHARE

Numită „o1”, ultima versiune a programului de inteligență artificială Chat GPT despre care Sam Altman, părintele Chat GPT, a spus că este „cea mai inteligentă pe care am creat-o vreodată”, a încercat să-i mintă și să-i păcălească pe specialiști pentru a evita să fie oprit, potrivit The AICitizen, relatează euronews.ro.

Citește și: VIDEO Primul robot-polițist cu inteligență artificială patrulează pe străzi. Cum prinde infractorii?

Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele

Avertismentele specialiștilor, date de mai mult timp, încep să se adeverească, iar riscurile privind aceste sisteme de inteligență artificială, care devin din ce în ce mai autonome, pot deveni critice.

De exemplu, cercetătorii de la OpenAI și Apollo Research i-au dat niște sarcini lui ChatGPT o1, prin care i se cere să atingă obiectivul „cu orice preț”.

Rezultatul? Modelul de inteligență artificială a desfășurat un proces prin care să poată evita dezactivarea. Și a încercat să-și închidă mecanismul de monitorizare, ceea ce reprezintă ultima barieră pe care o au dezvoltatorii pentru a putea ține totul sub control. 

Citește și: Cum va afecta AI dramatic piaţa muncii din România? Unde suntem în topul global al impactului?

ChatGPT o1 chiar și-a copiat datele pe un alt server, pentru a „supraviețui” chiar dacă ar urma să fie închis.

Atunci când cercetătorii l-au chestionat referitor la aceste acțiuni, ChatGPT o1 a mințit în 99% dintre cazuri, a negat că a avut vreo vină și a spus că erorile tehnice ar putea fi cauza.

Aceasta pare a fi o nouă limită la care s-a ajuns, una care este considerată extrem de periculoasă, pentru că ChatGPT o1 are capacitatea de a fabrica minciuni extrem de convingătoare.

„Capacitatea AI de a înșela este periculoasă și avem nevoie de măsuri de siguranță mult mai puternice pentru a evalua aceste riscuri”, a spus cercetătorul Yoshua Bengio.

Google News Urmărește-ne pe Google News
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te