Cofondatorul Apple recomandă prudență: ChatGPT nu știe ce e umanitatea. Poate face greșeli oribile

DE Andrei Vasilescu | Actualizat: 13.02.2023 - 16:02
Foto: profimediaimages.ro

Cofondatorul Apple, Steve Wozniak, recomandă prudență față de popularul chatbot.

SHARE

Cofondatorul Apple, Steve Wozniak, recomandă prudență față de popularul chatbot, spunându-i presentatorului unei emisiuni de la CNBC, Andrew Ross Sorkin, că, deși consideră că ChatGPT este "destul de impresionant" și "util pentru oameni", acesta are și potențialul de a face erori grave.

Poate să facă greșeli oribile

"Problema este că face lucruri bune pentru noi, dar poate face greșeli oribile, prin faptul că nu știe ce este umanitatea", a avertizat Wozniak, potrivit Insider.

În interviu, Wozniak a făcut o paralelă și cu preocupările legate de tehnologia AI în cazul mașinilor care se conduc singure și a subliniat faptul că, în prezent, AI nu poate înlocui șoferii umani.

Citește și: Povestea românului maestru de arte marțiale care i-a învățat și pe carabinieri cum să se lupte

"Este ca și cum ai conduce o mașină și ai ști ce ar putea face alte mașini în acest moment, deoarece cunoști oamenii", a spus el.

Dar, în ciuda cinismului din jurul tehnologiei, ChatGPT a devenit din ce în ce mai popular. Recent, OpenAI, creatorul ChatGPT, a încheiat un parteneriat de 10 miliarde de dolari cu Microsoft pentru a introduce inteligența artificială în produse precum motorul de căutare Bing și Microsoft Office.

Deficiențe în privința prejudecăților

Chatbotul este ușor de utilizat - utilizatorii pot introduce o întrebare sau o solicitare, iar acesta va genera un răspuns adecvat. ChatGPT este capabil să explice fizica cuantică, să scrie un poem la comandă și chiar să ajute studenții să scrie eseuri pentru facultate.

Dar nu este infailibil. Hasan Chowdhury de la Insider a relatat în februarie că Sam Altman, directorul general al OpenAI, a recunoscut că ChatGPT are "deficiențe în ceea ce privește prejudecățile" și ar putea oferi, uneori, răspunsuri rasiste, sexiste sau părtinitoare.

Și nu este vorba doar de ChatGPT. Noul chatbot experimental de inteligență artificială de la Google, Bard, a dat un răspuns inexact la o întrebare despre telescopul spațial James Webb.

Acest lucru a făcut ca Alphabet, compania mamă a Google, să piardă aproximativ 100 de miliarde de dolari în cota de piață, joia trecută, după ce greșeala a fost larg mediatizată.

Urmărește-ne pe Google News

Comentarii 0

Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
© 2024 NEWS INTERNATIONAL S.A.
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te