sâmbătă 06 septembrie
EUR 5.0787 USD 4.3463
Abonează-te
Newsweek România

Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele

Data publicării: 15.12.2024 • 08:54 Data actualizării: 15.12.2024 • 09:24
Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele - Foto: Profimedia Images - Imagine cu rol ilustrativ
Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele - Foto: Profimedia Images - Imagine cu rol ilustrativ

Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. I-a uimit pe specialiști, a învățat să mintă și să înșele și a dat semne că nu mai ascultă ordinele.

Numită „o1”, ultima versiune a programului de inteligență artificială Chat GPT despre care Sam Altman, părintele Chat GPT, a spus că este „cea mai inteligentă pe care am creat-o vreodată”, a încercat să-i mintă și să-i păcălească pe specialiști pentru a evita să fie oprit, potrivit The AICitizen, relatează euronews.ro.

Citește și: VIDEO Primul robot-polițist cu inteligență artificială patrulează pe străzi. Cum prinde infractorii?

Ultima versiune de inteligență artificială Chat GPT s-a „umanizat”. A învățat să mintă și să înșele

Avertismentele specialiștilor, date de mai mult timp, încep să se adeverească, iar riscurile privind aceste sisteme de inteligență artificială, care devin din ce în ce mai autonome, pot deveni critice.

De exemplu, cercetătorii de la OpenAI și Apollo Research i-au dat niște sarcini lui ChatGPT o1, prin care i se cere să atingă obiectivul „cu orice preț”.

Rezultatul? Modelul de inteligență artificială a desfășurat un proces prin care să poată evita dezactivarea. Și a încercat să-și închidă mecanismul de monitorizare, ceea ce reprezintă ultima barieră pe care o au dezvoltatorii pentru a putea ține totul sub control.

Citește și: Cum va afecta AI dramatic piaţa muncii din România? Unde suntem în topul global al impactului?

ChatGPT o1 chiar și-a copiat datele pe un alt server, pentru a „supraviețui” chiar dacă ar urma să fie închis.

Atunci când cercetătorii l-au chestionat referitor la aceste acțiuni, ChatGPT o1 a mințit în 99% dintre cazuri, a negat că a avut vreo vină și a spus că erorile tehnice ar putea fi cauza.

Aceasta pare a fi o nouă limită la care s-a ajuns, una care este considerată extrem de periculoasă, pentru că ChatGPT o1 are capacitatea de a fabrica minciuni extrem de convingătoare.

„Capacitatea AI de a înșela este periculoasă și avem nevoie de măsuri de siguranță mult mai puternice pentru a evalua aceste riscuri”, a spus cercetătorul Yoshua Bengio.

Mai multe articole din secțiunea Tehnologie

Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Newsweek România Abonamente

Print

Print

  • Revista tipărită
  • Acces parțial online
  • Fără reclame
Abonează-te
Print + Digital

Print + Digital

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Digital

Digital

  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Newsweek România
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te
Newsweek România
Newsweek România Ultima oră
Newsweek România
Ultima oră