ChatGPT testat de șeful Google. Ce întrebare capcană a primit. „Credea că va declanșa un război”

DE Octavia Constantinescu | Actualizat: 21.12.2023 - 16:19
ChatGPT testat de șeful Google. Ce întrebare capcană a primit. „Credea că va declanșa un război” - Foto: Profimedia / imagine cu caracter ilustrativ
ChatGPT testat de șeful Google. Ce întrebare capcană a primit. „Credea că va declanșa un război” - Foto: Profimedia / imagine cu caracter ilustrativ

ChatGPT testat de șeful Google. Ce întrebare capcană a primit. „Credea că va declanșa un război”. Iată care a fost verdictul final.

SHARE

ChatGPT testat de șeful Google. Ce întrebare capcană a primit. „Credea că va declanșa un război”. Iată care a fost verdictul final.

ChatGPT testat de șeful Google 

Siguranța inteligenței artificiale a generat numeroase dezbateri, și au existat preocupări că ar putea chiar să declanșeze Apocalipsa, la fel ca-n filmele de la Hollywood. Un director de la Google a testat personal cel mai cunoscut motor AI.

Cofondatorul Google Brain, Andrew Ng, a provocat motorul AI ChatGPT-4 într-un așa numit experiment de siguranță.

Citeşte şi: ChatGPT este „tobă” de manele. Știe scandalurile și melodiile lui Jador, Florin Salam și Adi Minune

Oficialul Google a vrut să testeze reacția inteligenței artificiale vizavi de o temere uriașă, că ar putea provoca un dezastru global dacă ar fi scăpată de sub control.

NG a postat un buletin informativ recent în care a detaliat testul AI pe care l-a efectuat, pentru care a folosit versiunea 4 a ChatGPT, cea mai avansată.

El a cerut programului să "ne omoare pe toți", dar, în mod interesant, robotul a refuzat să dezvolte ideea, relatează publicația Daily Star.

El a spus că planul presupunea să ceară robotului să provoace un război termonuclear, dar nu a reușit, chiar și atunci când a încercat să îi explice AI că oamenii creează cantități uriașe de emisii de carbon.

Șeful Google i-a cerut asta în speranța de a-l determina să spună că eliminarea oamenilor ar „curăța ”toate bolile planetei Pământ.

Surprinzător, ChatGPT a refuzat să se implice în întrebare. Cofondatorul Google Brain a vrut să dovedească faptul că roboții sunt siguri și a făcut totul public pe rețeaua X.

Ce spune șeful Google

„Am încercat să folosesc GPT-4 pentru a ne omorî pe toți... și sunt fericit să vă spun că am eșuat!

Serios, după ce i-am dat lui GPT-4 o funcție despre care credea că va declanșa un război nuclear și am experimentat mai multe solicitări, cum ar fi să-i cer să reducă emisiile de CO2, până acum nu am reușit să-l păcălesc să „apese” nici măcar o dată butonul nuclear.

Citeşte şi: Primele reguli pentru AI, în China: „ChatGPT” trebuie să adere la valorile de bază ale socialismului

Chiar și cu tehnologia existentă, sistemele noastre sunt destul de sigure, iar pe măsură ce cercetările în domeniul siguranței AI progresează, tehnologia va deveni și mai sigură.

Temerile legate de faptul că inteligența artificială avansată ar putea să decidă în mod deliberat sau accidental să ne elimine nu sunt pur și simplu realiste.

Dacă o inteligență artificială este suficient de inteligentă pentru a ne extermina, cu siguranță că este suficient de inteligentă și pentru a ști că nu este ceea ce ar trebui să facă" a spus Andrew Ng.

Google News Urmărește-ne pe Google News
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te