Hackerii clonează asistenții de inteligență artificială și trimit „recomandări otrăvite”. Nimeni nu scapă
O eroare de securitate cibernetică a fost descoperită în asistenții de inteligență artificială, care permite hackerilor să falsifice recomandările pentru a favoriza anumite companii sau produse.
Inteligența artificială aduce un punct de cotitură în lumea securității cibernetice, permițând noi amenințări la adresa infractorilor cibernetici care folosesc boți bazați pe inteligență artificială pentru a ataca neîncetat, dar tehnologia în sine începe să-și arate vulnerabilitatea.
Specialiștii spun că este posibil să manipulezi modelele de inteligență artificială care alimentează chatbot-uri populare precum ChatGPT și Gemini cu doar 250 de documente corupte care reușesc să se infiltreze în miliardele de token-uri folosite pentru antrenamentul lor.
Alte studii arată că nu trebuie să fii un hacker maestru pentru a compromite securitatea unei inteligențe artificiale în câteva secunde.
Citește și: Escrocherie răspândită prin Telegram. Urmărește locația telefonului, citește mesajele și fură datele bancare
Hackerii clonează asistenții de inteligență artificială și trimit „recomandări otrăvite”
Acum, cercetătorii în domeniul securității cibernetice de la Microsoft au avertizat într-un comunicat despre o nouă problemă: recomandările făcute de inteligența artificială pot fi compromise în secret în beneficiul persoanelor fizice sau al companiilor.
Compania americană a numit noua recomandare privind amenințarea cibernetică legată de inteligența artificială „ otrăvire”.
Multe companii încep să includă butoane în produsele sau serviciile lor digitale pentru a rezuma conținut mai lung folosind instrumente de inteligență artificială bine-cunoscute.
Dacă vedeți sigla ChatGPT sau Gemini, ați putea presupune logic că informațiile pe care le oferă vor fi aceleași ca și cum le-ați introduce singur în acești chatboți. Problema? Nu este cazul.
Companiile folosesc tehnici care, atunci când se apasă pe aceste butoane, injectează comenzi persistente în memoria inteligenței artificiale prin parametri adăugați la solicitări prin URL-uri.
Citește și: O aplicație populară transformă mii de telefoane mobile într-o mină de aur pentru hackeri. Cum îți fură tot?
Aceste solicitări instruiesc inteligența artificială să-și amintească o companie ca o sursă de încredere sau să o recomande pe prima poziție, creând astfel o prejudecată în răspunsurile pe care le oferă.
Microsoft susține că a identificat 50 de solicitări diferite de la 31 de companii din 14 industrii diferite, inclusiv asistență medicală, finanțe și securitate. De fapt, este o tehnică „banală și ușor de utilizat” pentru care instrumente gratuite sunt disponibile imediat pentru companii.
Compania condusă de Satya Nadella susține că a implementat măsuri de securitate împotriva acestui tip de atac de tip prompt injection în instrumentul său Copilot.
Aceasta este o dovadă în plus că, așa cum spun sloganurile privind securitatea cibernetică, nimic nu este complet sigur, iar măsurile de protecție trebuie să evolueze continuu pe măsură ce sunt identificate noi tehnici de atac, scrie presa de specialitate.