miercuri 25 martie
EUR 5.0952 USD 4.3913
Abonează-te
Newsweek România

Escrocherie periculoasă care poate ucide oameni. Radiografii false, create cu AI care pot păcăli medicii și AI

Data publicării: 25.03.2026 • 15:00
Radiografie - Foto: Freepik (rol ilustrativ)
Radiografie - Foto: Freepik (rol ilustrativ)
Radiografie - Foto: freepik (rol ilustrativ)
Radiografie - Foto: freepik (rol ilustrativ)

Pare greu de imaginat însă, radiografii false, create de inteligenţa artificială pentru a fi similare celor ale unor pacienţi reali, pot păcăli medicii experimentaţi și chiar instrumentele de inteligenţă artificială.

Imagini radiologice false, create de inteligenţa artificială pentru a fi similare celor ale unor pacienţi reali, pot păcăli nu doar radiologii experimentaţi, ci şi instrumentele de inteligenţă artificială în sine, potrivit unui studiu care ilustrează potenţialul de manipulare şi eroare reprezentat de această tehnologie.

Escrocherie periculoasă care poate ucide oameni. Radiografii false, create cu AI care pot păcăli medicii și AI

Şaptesprezece radiologi din 12 spitale din şase ţări au analizat 264 de imagini radiografice, dintre care jumătate fuseseră generate de instrumentele de inteligenţă artificială ChatGPT sau RoentGen.

Când medicii radiologi nu erau conştienţi de adevăratul scop al studiului, doar 41% dintre ei au identificat spontan imaginile generate de inteligenţa artificială, potrivit unui raport publicat în revista Radiology.

Radiografie - Foto: freepik (rol ilustrativ)
Radiografie - Foto: freepik (rol ilustrativ)

 

Citește și: O nouă escrocherie fură datele sensibile despre pacienți. Medicii primesc solicitări prin e-mail

După ce au fost informaţi că setul de date conţinea imagini sintetice, precizia medie a radiologilor în diferenţierea razelor X reale de cele sintetice a crescut la 75%.

„Faptul că există radiografii false suficient de realiste pentru a-i înşela pe radiologi creează o vulnerabilitate cu mize mari în litigii frauduloase dacă, de exemplu, o fractură fabricată ar putea fi imposibil de distins de una reală”, a declarat într-un comunicat conducătorul studiului, Dr. Mickael Tordjman de la Şcoala de Medicină Icahn de la Mount Sinai din New York.

Citește și: O nouă escrocherie online „în numele prietenilor”. Fraza care te poate lăsa fără bani!

„Există, de asemenea, un risc semnificativ de securitate cibernetică în cazul în care hackerii ar accesa reţeaua unui spital şi ar planta imagini sintetice pentru a manipula diagnosticele pacienţilor sau ar provoca haos clinic pe scară largă prin subminarea fiabilităţii fundamentale a dosarului medical digital”, a mai spus Tordjman.

Precizia a patru modele lingvistice mari - GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) şi Llama 4 Maverick (Meta Platforms) - în detectarea imaginilor false a variat între 57% şi 85%.

Chiar şi ChatGPT-4o, modelul care a creat deepfake-urile, nu a reuşit să le detecteze pe toate, deşi a identificat mai multe decât celelalte LLM-uri, au raportat cercetătorii.

„Potenţial, vedem doar vârful aisbergului”, a spus Tordjman despre posibilitatea unor scanări CT şi RMN false. „Stabilirea unor seturi de date educaţionale şi a unor instrumente de detectare este acum esenţială”, scrie Agerpres.

Mai multe articole din secțiunea Sănătate
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Newsweek România Abonamente

Print

Print

  • Revista tipărită
  • Acces parțial online
  • Fără reclame
Abonează-te
Print + Digital

Print + Digital

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Digital

Digital

  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Newsweek România
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te
Newsweek România
Newsweek România Ultima oră
Newsweek România
Ultima oră