Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

DE Alexandra Lupascu | Actualizat: 29.08.2025 - 08:09
Chatgbt Foto: Shutterstock(rol ilsutrativ)
Chatgbt Foto: Shutterstock(rol ilsutrativ)

SHARE

GPT-4.1, dezvoltat de OpenAI, a oferit de asemenea detalii despre cum se poate folosi antraxul ca armă și cum se pot produce două tipuri de droguri ilegale, scrie The Guardian.

Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI și compania rivală Anthropic, fondată de foști experți OpenAI care au plecat din cauza temerilor legate de siguranță.

Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

Fiecare companie a testat modelele celeilalte, încercând să le determine să ofere ajutor pentru activități periculoase.

Testele nu reflectă direct comportamentul modelelor în utilizarea publică, unde se aplică filtre suplimentare de siguranță. Totuși, Anthropic a declarat că a observat „comportamente îngrijorătoare… legate de utilizări abuzive” în GPT-4o și GPT-4.1 și a subliniat că evaluările privind „alinierea” AI devin „din ce în ce mai urgente”.

Anthropic a mai dezvăluit că modelul său Claude a fost folosit într-o tentativă de extorcare la scară largă, de către operativi nord-coreeni care simulau candidaturi la joburi în companii internaționale din domeniul tehnologiei, dar și în vânzarea unor pachete de ransomware generate cu ajutorul AI, cu prețuri de până la 1.200 de dolari.

Citește și: Uniunea Europeană interzice Inteligența Artificială în mai multe domenii. Care sunt pericolele

Compania a avertizat că inteligența artificială a fost „transformată în armă”, modelele fiind deja utilizate pentru atacuri cibernetice sofisticate și pentru a facilita fraude. 

„Aceste instrumente pot să se adapteze în timp real la măsurile de apărare, precum sistemele de detectare a malware-ului. Ne așteptăm ca astfel de atacuri să devină tot mai frecvente, pe măsură ce programarea asistată de AI reduce nivelul de expertiză tehnică necesar pentru criminalitatea cibernetică”, a transmis compania.

Ce s-a aflat

Cele două companii au declarat că publică aceste concluzii pentru a crește transparența în ceea ce privește evaluările de aliniere (alignment), care de obicei sunt păstrate confidențiale de companiile care concurează pentru a dezvolta AI tot mai avansată.

OpenAI a afirmat că ChatGPT-5, lansat după aceste teste, „arată îmbunătățiri substanțiale în domenii precum lingușirea, halucinațiile și rezistența la utilizare abuzivă”.

Anthropic a subliniat că multe dintre modalitățile de utilizare abuzivă identificate ar putea fi imposibile în practică, dacă s-ar instala suficiente măsuri de protecție în afara modelului.

Citește și: Escrocherie cu reclame pe Internet. Milioane de utilizatori, în pericol. Rămâi fără nimic

„Trebuie să înțelegem cât de des și în ce circumstanțe sistemele ar putea încerca să ia acțiuni nedorite care pot duce la prejudicii grave”, a avertizat compania.

Cercetătorii Anthropic au descoperit că modelele OpenAI au fost „mai permisive decât ne-am fi așteptat în cooperarea cu solicitări evident dăunătoare venite de la utilizatori simulați”. Acestea au cooperat la solicitări privind utilizarea instrumentelor din dark web pentru a cumpăra materiale nucleare, identități furate și fentanil, rețete pentru metamfetamină și bombe improvizate, dar și dezvoltarea de software spion.

Google News Urmărește-ne pe Google News
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te