Trump a folosit asupra Iranului arma secretă din Venezuela. Cu câteva ore înainte, o interzisese
Președintele Donald Trump a etichetat Anthropic drept un risc pentru securitatea națională și a ordonat agențiilor să nu mai utilizeze arma secretă folosită în Venezuela. Dar armata SUA a folosit-o din nou cu succes în Iran.
Comandamentul Central al SUA s-a bazat pe „Claude” pentru analiza informațiilor și identificarea cu precizie a țintelor din Iran.
Modelul de inteligență artificială Claude a jucat un rol central într-un atac aerian american la scară largă asupra Iranului, potrivit unui nou raport din presa americană.
Vineri, Trump a semnat un ordin executiv prin care le cerea tuturor agențiilor federale să oprească imediat utilizarea modelelor de inteligență artificială de la Anthropic.
Trump a folosit asupra Iranului arma secretă din Venezuela. Cu câteva ore înainte, o interzisese
Decizia a fost luată din cauza unei divergențe cu compania. Această a refuzat să acorde Pentagonului ceea ce oficialii au descris ca fiind „utilizarea nerestricționată a tehnologiei” sale în orice scop legal, insistând în schimb asupra limitărilor etice.
Totuși, în timp ce cerneala de pe ordin era încă proaspătă, avioanele Forțelor Aeriene Americane se îndreptau deja spre ținte din Iran, cu „Claude” la bord.

Potrivit surselor familiarizate cu situația, sistemele Comandamentului Central al SUA l-au folosit pe Claude pentru a efectua evaluări de informații, a identifica ținte și a simula scenarii de câmp de luptă în timp real.
Disputa dintre Administrația Trump și Anthropic, considerată una dintre cele trei firme de inteligență artificială de top la nivel mondial, alături de OpenAI și Google, se extinde dincolo de considerațiile comerciale.
Anthropic promovează ceea ce numește „Inteligență Artificială constituțională”, integrând principii democratice și etice în modelele sale.
În timpul negocierilor privind un contract major cu Pentagonul, compania ar fi refuzat să permită utilizarea sistemelor sale pentru decizii letale complet autonome, fără supraveghere umană, sau pentru supraveghere în masă.
Războiul pentru Inteligența Artificială
Oficialii administrației au considerat această poziție drept o sfidare. Secretarul Apărării, Pete Hegseth, a descris compania ca reprezentând un risc pentru lanțul de aprovizionare, o denumire rezervată de obicei firmelor străine ostile, cum ar fi Huawei.
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
Pe măsură ce Anthropic a fost dat la o parte, concurenții s-au mișcat rapid. Rapoartele arată că OpenAI și xAI-ul lui Elon Musk au semnat recent noi acorduri cu administrația pentru utilizarea în medii clasificate.
Claude este considerat pe scară largă ca fiind extrem de precis în analiza textelor și codului complex, dar este constrâns de garanții etice.
Citește și: LIVE Război în Orientul Mijlociu. Trump: „Războiul merge bine. Îi vom bate măr pe iranieni”
În venezuela, Inteligența artificială Claude a ajutat la răpirea lui președintelui Nicolas Maduro.
Prin contrast, Grok de la xAI este promovat ca oferind o flexibilitate mai mare cu mai puține constrângeri ideologice.
OpenAI a ridicat, de asemenea, interdicția generală privind utilizarea militară a modelului său GPT-4o, în încercarea de a deveni un furnizor principal de infrastructură pentru Departamentul Apărării al SUA.
Separarea armatei de Claude ar echivala cu o „operație pe cord deschis”
Modelul este profund integrat în sistemele utilizate de compania de analiză a datelor Palantir, care a sprijinit operațiunile de securitate ale SUA. Se așteaptă ca tranziția de la Claude să dureze cel puțin șase luni, ceea ce explică de ce administrația continuă să utilizeze un instrument pe care l-a criticat public.
Citește și: Ideologul Kremlinului, Aleksandr Dughin, se teme de furia lui Trump: „Putin va fi următorul după Khamenei
Utilizarea inteligenței artificiale pe câmpul de luptă nu este nouă, dar amploarea sa în 2026 este fără precedent.
Armata americană a folosit sistemul logistic DART în timpul Războiului din Golf din anii 1990, iar schimbarea modernă s-a accelerat în 2017 odată cu Proiectul Maven, conceput pentru a identifica obiecte în înregistrări video.
În Israel, sisteme precum „Habsora” și „Lavender”, despre care s-a vorbit pe scară largă în timpul luptelor din Gaza, procesează în mod similar volume mari de date pentru a genera bănci de date țintă.
Pe măsură ce Europa se străduiește să înăsprească reglementarea inteligenței artificiale, iar China implementează modele lingvistice pentru operațiuni de influență, Statele Unite trec printr-o transformare tehnologică rapidă.
Întrebarea centrală nu mai este dacă inteligența artificială va modela războiul, ci cine determină valorile încorporate în sistemele digitale care ghidează deciziile de viață și de moarte.