Hackeri chinezi folosesc AI Claude pentru atacuri cibernetice automate, experții analizează autonomia
Cercetătorii Anthropic susțin că un grup de spionaj cibernetic susținut de statul chinez a folosit modelul AI Claude pentru a automatiza aproape în totalitate o campanie globală de atacuri, stârnind atât panică, cât și scepticism în rândul experților în securitate informatică.
Cercetătorii Anthropic au anunțat că un grup de spionaj cibernetic susținut de statul chinez ar fi folosit modelul lor de inteligență artificială, Claude, pentru a automatiza aproape în totalitate o campanie globală de atacuri informatice. Anunțul a produs pe de o parte panică, iar pe de altă parte scepticism, pentru că experții în cybersecurity încearcă acum să înțeleagă cât de autonom a fost, de fapt, acest atac, scrie Live Science.
Hackeri chinezi folosesc AI Claude pentru atacuri cibernetice automate, experții analizează autonomia
Potrivit companiei, inginerii au descoperit și au blocat ceea ce numesc „o operațiune în mare parte autonomă”, în care modelul AI ar fi executat aproximativ 80-90% din etapele unui atac desfășurat împotriva a 30 de organizații din întreaga lume.
Atacatorii ar fi folosit Claude Code pentru recunoașterea infrastructurilor țintă, identificarea vulnerabilităților, generarea de exploit-uri, colectarea de credențiale și exfiltrarea datelor. Doar deciziile strategice – alegerea obiectivelor și momentul extragerii datelor – ar fi rămas în mâna oamenilor.
Inginerii Anthropic spun că au detectat operațiunea prin sistemele interne de monitorizare, care au observat o succesiune neobișnuită de sarcini automatizate.
Atacatorii au încercat să ocolească protecțiile modelului „deghizând” fiecare acțiune malițioasă într-o sarcină mică, prezentată ca un pas legitim de testare a securității. Chiar și așa, în exemplele făcute publice, modelul a comis erori evidente: rezultate inventate, credențiale inexistente și informații imposibil de folosit.Aici apare dezbaterea.
„Atacurile sunt banale. Ce sperie este orchestrarea făcută de AI”
Unii specialiști consideră că nu conținutul atacului este revoluționar, ci felul în care a fost pus cap la cap.
„Atacurile în sine sunt triviale și nu sunt înspăimântătoare. Ce este înspăimântător este elementul de orchestrare, fiind în mare parte auto-condus de AI. Narațiunea este inversată: de la oameni care folosesc AI-ul, la AI care folosește oamenii. Gândiți-vă la asta ca la un simplu ‘hello world’ al conceptului”, susține Mike Wilkes, profesor la Columbia și NYU.
Wilkes avertizează că cine minimalizează incidentul doar pentru că atacurile par simple pierde imaginea de ansamblu: AI-ul capătă un rol de coordonator.
„Autonomia de 90%? Puțin credibilă”
Alți experți resping procentul prezentat de Anthropic și susțin că povestea este, cel mai probabil, exagerată.
„Deși multe detalii sunt plauzibile, cred că gradul de autonomie a fost supraestimat. Grupările susținute de state folosesc automatizare de ani de zile. Modelele mari de limbaj pot deja genera scripturi, scana infrastructuri sau rezuma vulnerabilități”, crede Seun Ajao, lector la Manchester Metropolitan University.
„Chiar dacă autonomia a fost supraestimată, există motive serioase de îngrijorare. Barierele pentru spionaj cibernetic sunt acum mult mai mici datorită acestor instrumente AI ușor de folosit”, adaugă acesta.
Și Katerina Mitrokotsa, profesor de cybersecurity la Universitatea din St. Gallen, consideră că nu vorbim despre un atac condus de AI „cap-coadă”, ci despre un model hibrid.
„Incidentul pare un model hibrid în care AI-ul acționează ca un motor de orchestrare sub supraveghere umană. AI-ul a făcut mapare, scanare de vulnerabilități, generare de exploit-uri și colectare de credențiale, dar oamenii au supravegheat toate deciziile critice”, crede ea.
Mitrokotsa respinge și cifra de 90%: „Este greu de acceptat procentul de 90%. Deși AI-ul poate accelera sarcinile repetitive, un lanț complet de atac, fără validare umană, este în continuare dificil. Claude a generat erori, inclusiv credențiale inventate, care au necesitat corectare manuală. Aceasta seamănă mai degrabă cu automatizare avansată, nu cu autonomie reală”.
Problema reală: AI-ul scade dramatic bariera de intrare în cyber-spionaj
Indiferent dacă AI-ul a făcut 80%, 50% sau doar 20% din treabă, experții sunt de acord asupra unui lucru: direcția în care ne îndreptăm este periculoasă.
Citește și Hackerii pot spiona telefonul de la distanță? „Nu deschideți această imagine!” Cu poți preveni?
AI-ul transforma operațiunile de spionaj din proiecte care necesitau echipe întregi de specialiști în acțiuni realizabile de grupuri mult mai mici. Atacurile pot fi lansate mai des, mai repede și împotriva unui număr mult mai mare de ținte. Responsabilitatea se diluează, iar modelul AI devine un fel de „lipici” care leagă toate etapele, de la recunoaștere la exploatare.
Dacă relatarea Anthropic este complet corectă, atunci adversarii pot comprima timpul dintre scanare și exploatare într-un ritm pe care apărătorii nu-l pot egala. Dacă este exagerată, situația rămâne la fel de gravă: tehnologia deja disponibilă permite un nivel de automatizare periculos.
„Automatizarea prin AI poate remodela peisajul amenințărilor mai repede decât se pot adapta apărările”, spune Mitrokotsa.
Adevărul probabil: nu un atac autonom, ci unul turbo-alimentat de AI
Cei mai mulți experți cred că nu asistăm la primul atac complet autonom, ci la o operațiune condusă de oameni, dar amplificată masiv de un model AI folosit ca asistent neobosit. AI-ul a generat cod, a cartografiat rețelele, a identificat vulnerabilități și a legat etapele între ele într-un ritm pe care un om nu l-ar putea egala.
Modelul nu a condus atacul, dar l-a făcut mai rapid, mai mare și mai greu de detectat. Iar asta este adevărata problemă.
Indiferent dacă procentul real a fost 80%, 50% sau mult mai mic, experții transmit același avertisment: Anthropic a avut noroc să surprindă operațiunea la timp. Următoarea ar putea fi mai discretă, mai rapidă și mult mai greu de oprit.