Escrocherie periculoasă care poate ucide oameni. Radiografii false, create cu AI care pot păcăli medicii și AI
Pare greu de imaginat însă, radiografii false, create de inteligenţa artificială pentru a fi similare celor ale unor pacienţi reali, pot păcăli medicii experimentaţi și chiar instrumentele de inteligenţă artificială.
Imagini radiologice false, create de inteligenţa artificială pentru a fi similare celor ale unor pacienţi reali, pot păcăli nu doar radiologii experimentaţi, ci şi instrumentele de inteligenţă artificială în sine, potrivit unui studiu care ilustrează potenţialul de manipulare şi eroare reprezentat de această tehnologie.
Escrocherie periculoasă care poate ucide oameni. Radiografii false, create cu AI care pot păcăli medicii și AI
Şaptesprezece radiologi din 12 spitale din şase ţări au analizat 264 de imagini radiografice, dintre care jumătate fuseseră generate de instrumentele de inteligenţă artificială ChatGPT sau RoentGen.
Când medicii radiologi nu erau conştienţi de adevăratul scop al studiului, doar 41% dintre ei au identificat spontan imaginile generate de inteligenţa artificială, potrivit unui raport publicat în revista Radiology.
Citește și: O nouă escrocherie fură datele sensibile despre pacienți. Medicii primesc solicitări prin e-mail
După ce au fost informaţi că setul de date conţinea imagini sintetice, precizia medie a radiologilor în diferenţierea razelor X reale de cele sintetice a crescut la 75%.
„Faptul că există radiografii false suficient de realiste pentru a-i înşela pe radiologi creează o vulnerabilitate cu mize mari în litigii frauduloase dacă, de exemplu, o fractură fabricată ar putea fi imposibil de distins de una reală”, a declarat într-un comunicat conducătorul studiului, Dr. Mickael Tordjman de la Şcoala de Medicină Icahn de la Mount Sinai din New York.
Citește și: O nouă escrocherie online „în numele prietenilor”. Fraza care te poate lăsa fără bani!
„Există, de asemenea, un risc semnificativ de securitate cibernetică în cazul în care hackerii ar accesa reţeaua unui spital şi ar planta imagini sintetice pentru a manipula diagnosticele pacienţilor sau ar provoca haos clinic pe scară largă prin subminarea fiabilităţii fundamentale a dosarului medical digital”, a mai spus Tordjman.
Precizia a patru modele lingvistice mari - GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) şi Llama 4 Maverick (Meta Platforms) - în detectarea imaginilor false a variat între 57% şi 85%.
Chiar şi ChatGPT-4o, modelul care a creat deepfake-urile, nu a reuşit să le detecteze pe toate, deşi a identificat mai multe decât celelalte LLM-uri, au raportat cercetătorii.
„Potenţial, vedem doar vârful aisbergului”, a spus Tordjman despre posibilitatea unor scanări CT şi RMN false. „Stabilirea unor seturi de date educaţionale şi a unor instrumente de detectare este acum esenţială”, scrie Agerpres.