Expert în AI: "Dacă aveți de gând să faceți copii, renunțați!". Urmează vremuri riscante pentru om

DE Florin Budescu | Actualizat: 20.06.2023 - 14:12
Expert în AI: "Dacă aveți de gând să faceți copii, renunțați!" - Foto: Pexels/ThisIsEngineering

Un expert în AI, fostul director al diviziei de business de la Google, a lansat un avertisment înfricoșător cu privire la pericolele inteligenței artificiale. Mo Gawdat le transmite oamenilor care nu au copii și își doresc să devină părinți să renunțe la idee.

SHARE

"De fapt, riscurile sunt atât de mari, încât, dacă luăm în considerare toate celelalte amenințări la adresa umanității, ar trebui să vă abțineți de la a avea copii, dacă nu ați devenit încă părinți", a declarat el pentru Steven Bartlett, gazda podcastului Diary of a CEO podcast.

Expert în AI: "Dacă aveți de gând să faceți copii, renunțați!"

Însă nu este prima dată când directori din industria tehnologică lansează astfel de avertismente.

La începutul acestui an, Elon Musk și cofondatorul Apple, Steve Wozniak, au semnat o scrisoare deschisă, prin care cereau dezvoltatorilor să nu mai inoveze timp de șase luni, astfel încât industria și utilizatorii să aibă timp să se acomodeze cu avansul tehnologic.

Scrisoarea, publicată pe site-ul Institutului pentru viitorul vieții, arată că "laboratoarele de inteligență artificială sunt " angrenate într-o cursă scăpată de sub control pentru a elabora și implementa inteligențe digitale din ce în ce mai puternice pe care nimeni - nici măcar creatorii lor - nu le pot înțelege, prezice sau controla în mod responsabil".

Citeşte şi: Geoffrey Hinton, unul dintre părinții AI: Inteligența Artificială, mai periculoasă decât poluarea

De asemenea, Centrul pentru siguranța AI a emis o declarație în care subliniază că:

"Reducerea pericolului de extincție cauzat de inteligența artificială ar trebui să fie o prioritate globală, pe lângă celelalte tipuri de riscuri, precum pandemiile și războiul nuclear".

Sam Altman, directorul general al OpenAI, creatorul chatbot-ului extrem de popular ChatGPT, a avertizat deopotrivă asupra riscului existențial și a solicitat crearea unui organism de supraveghere similar ONU, care să reglementeze această tehnologie.

Gawdat a mai spus că inteligența artificială este "cea mai mare provocare cu care s-a confruntat vreodată omenirea". Acesta a comparat realitatea viitorului umanității cu cea a filmelor distopice, precum Blade Runner.

Citeşte şi: Inteligența artificială poate avea un cuvânt de spus în hotărârile judecătorești obiective

"Nu a existat vreodată o astfel de furtună perfectă în istoria umanității", a întărit Gawdat. "Economia, situația geopolitică, încălzirea globală, schimbările climatice, întreaga idee de inteligență artificială, aceasta este o furtună perfectă, profunzimea incertitudinii nu a fost niciodată mai intensă.

Dacă ți-ai iubi cu adevărat copiii, ai vrea să îi expui la toate acestea?", s-a întrebat retoric acesta în timpul podcast-ului.

"Mi-am petrecut cariera fascinat de rolul pe care îl joacă tehnologia, iar acum, cea mai mare provocare cu care s-a confruntat vreodată omenirea se află în fața noastră", a mai declarat Gawdat.

Citeşte şi: 

Acesta a mai spus că inteligența artificială este punctul culminant al progresului tehnologic și va defini iremediabil felul în care este modelată lumea, conform Digi24.

"Inteligența digitală a ajuns să fie atât de rafinată, încât a devenit autonomă și este un element la care mai degrabă trebuie să apelăm, nu să-l controlăm", a adăugat acesta.

"Este esențial să fim în permanență atenți la modul în care putem face acest lucru, altfel riscăm să rămânem în urmă", a conchis expertul.

URMĂREŞTE-NE PE GOOGLE NEWS

Urmărește-ne pe Google News

Comentarii 0

Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
© 2024 NEWS INTERNATIONAL S.A.
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te