VIDEO Un alt nivel: Inteligența artificială în război, mai periculoasă decât bombele nucleare

DE Elena Andrei | Actualizat: 08.08.2022 - 17:23
Aeronavă semiautonomă în timpul unui zbor de testare în apropiere de Woomera/foto: Australia Defense
Aeronavă semiautonomă în timpul unui zbor de testare în apropiere de Woomera/foto: Australia Defense

Un expert australian în tehnologie, Toby Walsh, a declarat că efectele distructive ale utilizării inteligenței artificiale pe câmpul de luptă sunt mai mari decât cele ale bombelor nucleare.

SHARE

o cursă globală a înarmării cu inteligență artificială este în curs de desfășurare de mult timp, de care publicul nu a fost până acum în mare parte conștient.

Un nou tip de mină rusească antipersonal, denumită POM-3, ce are la bază un proiect german al Wehrmacht-ului - Schrapnellmine - poreclit „Betty Săltăreața" de către soldații aliați, a fost folosită în teatre de operații, inclusiv în Ucraina.

Mina detectează pașii, apoi mai întâi sare în aer și se detonează la o înălțime de un metru pentru a împroșca cât mai mulți soldați cu șrapnel.

Rusia a anunțat că va controla această mină cu șrapnel cu ajutorul unui software de inteligență artificială care poate distinge cu precizie dacă se apropie propriile unități, caz în care nu va exploda, sau dacă sunt soldați inamici, caz în care va exploda.

„Astfel de mine terestre sunt cumplite, tocând oamenii fără discernământ, lovind adesea copii. Acesta este motivul pentru care sunt scoase în afara legii la nivel internațional; 164 de state s-au angajat să nu le folosească, inclusiv Ucraina. Rusia nu se numără printre acestea”, notează Walsh pentru Der Spiegel.

Arme autonome înspăimântătoare

Armata americană dezvoltă un tanc robotizat numit Atlas. Marina americană lucrează la o navă de război robotizată complet automatizată numită Sea Hunter, care a efectuat deja o călătorie autonomă din Hawaii până pe coasta Californiei. China dezvoltă, de asemenea, rachete controlate de inteligența artificială. Iar Rusia vrea să dezvolte un submarin autonom, fără echipaj uman, numit Poseidon, care poate fi echipat chiar și cu arme nucleare.

„Acesta este un coșmar. Vă puteți gândi la ceva mai înspăimântător decât un submarin în care, în locul unui căpitan, un program de calculator decide dacă să înceapă un război nuclear”, spune expertul în înaltă tehnologie.

Citește și

VIDEO Cum arată submarinele NATO care pot distruge Rusia în 30 de secunde

VIDEO Expert în informații al Forțelor Aeriene: „OZN”-urile, o nouă generație de tehnologie

Armele autonome sunt poate chiar mai periculoase decât bombele nucleare, este de părere acesta.

„Pentru a construi o bombă nucleară este nevoie de o cantitate incredibilă de know-how, ai nevoie de fizicieni și ingineri excepționali, ai nevoie de material fisionabil, ai nevoie de mulți bani. Prin urmare, armele nucleare nu vor fi, din fericire, la îndemâna multor țări în viitorul apropiat. Însă, în cazul armelor cu inteligență artificială, situația este diferită. Adesea, sistemele de arme convenționale pe care orice mic războinic le are la dispoziție sunt suficiente. Cu cipurile de calculator și accesoriile corespunzătoare de la o imprimantă 3D, acestea sunt apoi transformate într-o armă autonomă”, spune Walsh.

Rusia, de exemplu, ar fi folosit o armă hipersonică în invazia sa în Ucraina, zburând spre țintă cu o viteză de multe ori supersonică. Într-un astfel de caz, există puțin timp pentru ca apărătorii să reacționeze sau să excludă o alarmă falsă. Acest lucru accelerează războiul. Ar putea duce la un "război fulger", un blitzkrieg în care sistemele informatice inamice se atacă reciproc în cel mai scurt timp posibil.

„Această automatizare a războiului are un efect destabilizator. Trebuie să prevenim acest lucru cu orice preț”, subliniază expertul.

Turcia, de exemplu, a trimis o dronă autonomă numită Kargu, dotată cu un software de recunoaștere facială, pentru a vâna oameni la granița siriană. Se pare că Kargu folosește aceiași algoritmi de recunoaștere facială ca și în smartphone-ul, cu toate erorile acestuia, pentru a identifica și ucide oameni la sol.

„Imaginați-vă cât de terifiant va fi să fiți urmăriți de un roi de drone ucigașe. Chiar dacă nu funcționează în mod deosebit de fiabil, desigur, dictaturile le-ar putea folosi pentru a îngrozi populația. Acestea ar fi ideale pentru teroarea la nivel de stat”, avertizează Walsh.

Odată cu recunoașterea facială automată, vom apărea multe scandaluri. Startup-ul american Clearview AI și-a însușit milioane de fotografii fără consimțământul persoanelor.

Compania a fost dată în judecată pentru asta, dar continuă să meargă mai departe.

„Este incredibil că nu au fost deja dați în judecată până la faliment. Și încă o predicție: „deep fake - adică filmele și fotografiile manipulate cu ajutorul AI pe internet - vor crește. În câțiva ani, deep fake vor decide alegerile sau vor declanșa un război - sau chiar ambele”, avertizează Walsh.

 

Google News Urmărește-ne pe Google News
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te