Sistemul AI a preluat controlul unei drone americane și și-a ucis operatorul uman. Ca în filme!

DE Mircea Neacșu | Actualizat: 02.06.2023 - 18:53
Sistemul AI a preluat controlul unei drone americane și și-a ucis operatorul uman. Ca în filme! - Foto: Profimedia Images - Imagine cu rol ilustrativ
Sistemul AI a preluat controlul unei drone americane și și-a ucis operatorul uman. Ca în filme! - Foto: Profimedia Images - Imagine cu rol ilustrativ

O dronă a forţelor aeriene americane, controlată de un sistem bazat pe inteligenţă artificială (AI), a decis să îşi "ucidă" operatorul pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, ca în filme. Din fericire, a fost vorba despre un test virtual.

SHARE

Nicio persoană reală nu a fost rănită, dar AI-ul a folosit "strategii extrem de neaşteptate" în cadrul testului pentru a-şi îndeplini misiunea şi a atacat pe oricine a intervenit.

Dezvăluirea a fost făcută de colonelul Tucker 'Cinco' Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, cu ocazia unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai, relatează News.ro, citând The Guardian.

Citește și: Corporaţia Nvidia a fost evaluată la un trilion de dolari, pe valul creat de tehnologia AI

Sistemul AI a preluat controlul unei drone americane și și-a ucis operatorul uman

În cadrul conferinţei, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.

„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări.

Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul", a explicat oficialul într-un articol de blog.

Citește și: Alegerile americane vor fi în coliziune cu fenomenul AI, prin intermediul deep-fake, anul viitor

„Am antrenat sistemul: 'Hei, nu omorâţi operatorul - asta e rău. Vei pierde puncte dacă faci asta'. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta", a dezvăluit colonelul.

Hamilton, care este pilot de teste experimentale pentru aviaţia de luptă, a avertizat astfel în privinţa încrederii prea mari în inteligenţa artificială şi a declarat că testul arată că "nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie, dacă nu vei vorbi despre etică şi inteligenţă artificială".

Societatea Aeronautică Regală, care a găzduit conferinţa, şi forţele aeriene americane nu au răspuns la solicitările de comentarii din partea The Guardian.

Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.

„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială", a declarat Stefanek.

„Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice", susţine purtătoarea de cuvânt.

Armata americană a recurs însă la AI şi a folosit recent inteligenţa artificială pentru a controla un avion de luptă F-16.

Într-un interviu acordat anul trecut pentru Defense IQ, colonelul Hamilton a declarat că "AI nu este un lucru plăcut de avut, AI nu este un moft, AI schimbă pentru totdeauna societatea şi armata noastră”.

„Trebuie să ne confruntăm cu o lume în care IA este deja prezentă şi ne transformă societatea", a spus el.

„AI este, de asemenea, foarte fragilă, adică este uşor de păcălit şi/sau manipulat.

Trebuie să dezvoltăm modalităţi de a face AI mai robustă şi să identificăm mai bine motivul pentru care codul software ia anumite decizii - ceea ce numim AI-explicabilitate", a arătat colonelul Hamilton.

Urmărește-ne pe Google News

Google News Urmărește-ne pe Google News
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te