Radiografii deepfake atât de convingătoare încât pot păcăli chiar și radiologii, arată un studiu publicat în Radiology

Studiul din Radiology arată că radiografiile generate de AI pot păcăli radiologii și modelele AI; sunt prezentate riscuri, indici și propuneri de protecție.

Radiografii deepfake atât de convingătoare încât pot păcăli chiar și radiologii, arată un studiu publicat în Radiology

Sursa foto: Imagine generată AI iAceastă imagine a fost generată automat de AI pe baza rezumatului articolului și nu reprezintă un moment real fotografiat.


Un studiu recent publicat în revista Radiology a demonstrat că radiografiile generate de inteligența artificială pot fi suficient de convingătoare pentru a induce în eroare atât radiologii experimentați, cât și modelele AI multimodale. Descoperirile, prezentate pe 24 martie, ridică semne de întrebare serioase cu privire la vulnerabilitățile pe care le pot crea imagini medicale sintetice în contextul diagnosticării, litigiilor medicale și securității cibernetice a sistemelor spitalicești.

Un experiment care pune la încercare percepția experților

Conducătorul studiului, dr. Mickael Tordjman, cercetător postdoctoral la Icahn School of Medicine din Mount Sinai, New York, subliniază gravitatea rezultatelor: imaginile radiologice falsificate au fost suficient de realiste pentru a înșela chiar și cei mai bine pregătiți specialiști în imagistică medicală. Autorii avertizează că această capacitate de a genera radiografii false deschide posibilitatea folosirii acestor imagini în litigii frauduloase, inserarea lor în fișele electronice medicale sau manipularea diagnosticelor în scopuri rău intenționate.

Proiectarea studiului și seturile de imagini testate

Studiul a implicat 17 radiologi provenind din 12 instituții aparținând a șase țări: Statele Unite, Franța, Germania, Turcia, Regatul Unit și Emiratele Arabe Unite. Participanții aveau niveluri de experiență variate, de la începători până la specialiști cu până la 40 de ani în practică. În total, cercetătorii au analizat 264 de imagini radiografice, împărțite în mod egal între scanări reale și imagini generate de AI.

Testarea a inclus două seturi distincte de imagini, fără suprapunere între ele. Primul set conținea o combinație de radiografii reale și radiografii generate cu ajutorul ChatGPT, acoperind mai multe regiuni anatomice. Al doilea set s-a concentrat exclusiv pe radiografii toracice, dintre care jumătate erau reale și cealaltă jumătate generate de modelul open-source RoentGen, dezvoltat de cercetători de la Stanford Medicine.

Structura și obiectivele evaluării

Participanții au fost rugați să evalueze calitatea tehnică a imaginilor și să spună dacă acestea erau reale sau generate de AI. În plus, cercetătorii au rulat aceleași imagini prin patru modele multimodale de tip large language model (LLM) cu capabilități vizuale pentru a compara performanța oamenilor cu cea a sistemelor automate.

Rezultatele: detectarea deepfake-urilor rămâne dificilă

Când nu au fost anunțați că în setul de imagini se află radiografii false, radiologii au recunoscut imaginile generate de AI în medie în doar 41% din cazuri, bazându-se pe evaluarea calității tehnice. După ce li s-a comunicat explicit că există imagini sintetice în set, precizia medie în a separa realul de fals a crescut la 75%.

Performanța individuală a radiologilor a variat semnificativ: în identificarea imaginilor generate de ChatGPT, ratele corecte au fost între 58% și 92%. Aceste variații indică faptul că, deși unii experți pot detecta adesea anomaliile, mulți pot fi totuși păcăliți de imagini foarte convingătoare.

Și modelele AI folosite pentru detecție au arătat limite relevante. Patru modele multimodale evaluate în studiu — GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) și Llama 4 Maverick (Meta) — au obținut rate de acuratețe cuprinse între 57% și 85%. Interesant, chiar și ChatGPT-4o, aceeași versiune folosită pentru a genera anumite imagine deepfake, nu a detectat toate imaginile sintetice, deși a performat mai bine decât alte modele.

Pentru imaginile toracice create de RoentGen, radiologii au înregistrat rate de acuratețe între 62% și 78%, în timp ce modelele AI au înregistrat un interval de performanță și mai larg, între 52% și 89%.

Experiența nu garantează detectarea

Un rezultat important al analizei a fost că numărul de ani în practică al radiologilor nu s-a corelat cu abilitatea de a identifica imaginile false. Cu toate acestea, radiologii specializați în afecțiuni musculoscheletale (musculoskeletal radiologists) au obținut performanțe semnificativ mai bune decât alți subspecialiști, sugerând că anumite tipuri de expertiză practică pot facilita recunoașterea unor artefacte sau a unor tipare neobișnuite în imagini.

Semne vizuale ale unei radiografii deepfake

Cercetătorii au observat mai multe tipare recurente care pot apărea în imaginile sintetice, oferind indicii utile profesioniștilor care încearcă să le identifice:

  • Oase prea netede
  • Coloane vertebrale neobișnuit de drepte
  • Plămâni excesiv de simetrici
  • Modele ale vaselor de sânge excesiv de uniforme
  • Fracturi neobișnuit de curate și consistente, deseori limitate la o singură parte a osului

După cum a explicat dr. Tordjman, imaginile deepfake „arată adesea prea perfecte”. Aceste trăsături apar deoarece modelele generative tind să producă versiuni idealizate sau regularizate ale structurilor anatomice, eliminând variabilitatea naturală care există în datele clinice reale.

Riscuri practice pentru sistemul medical și propuneri de protecție

Consecințele utilizării abuzive a radiografiilor sintetice pot fi serioase. Imaginile fabricate ar putea fi prezentate în instanță pentru a susține pretinse leziuni sau pot fi introduse într-un registru electronic pentru a influența deciziile clinice, punând în pericol siguranța pacientului și integritatea actului medical. Mai mult, un atac cibernetic care ar permite injectarea de imagini sintetice în cadrul infrastructurii unui spital ar putea genera confuzie clinică extinsă și submina încrederea în înregistrările medicale digitale.

Pentru a contracara aceste amenințări, autorii studiului recomandă adoptarea unor protecții digitale mai consistente. Printre măsurile sugerate se numără inserarea de watermark-uri invizibile direct în imagini și semnături criptografice care să fie atașate imaginii la momentul captării de către tehnologic. Aceste mecanisme ar facilita verificarea autenticității unei imagini și ar lega clar conținutul imaginii de persoana sau dispozitivul care a realizat-o.

Măsuri educaționale și instrumente de detecție

Autorii subliniază, de asemenea, necesitatea dezvoltării de seturi de date educaționale și a instrumentelor automate de detectare pentru a pregăti profesioniștii din sănătate să recunoască deepfake-urile. În acest scop, echipa cercetătoare a pus la dispoziție un set de date curat și adaptat pentru antrenament, care include chestionare interactive menite să ajute la instruirea și conștientizarea personalului medical privind semnele distinctive ale imaginilor sintetice.

Perspective: ce urmează în generarea AI a imaginilor medicale

Dr. Tordjman avertizează că ceea ce s-a observat până acum ar putea reprezenta doar „vârful aisbergului”. Progresul tehnologic indică direcția către generarea sintetică a unor imagini medicale tridimensionale mai complexe, precum cele obținute prin tomografie computerizată (CT) sau imagistică prin rezonanță magnetică (IRM). O astfel de evoluție ar amplifica potențialul de abuz și necesitatea unor mecanisme robuste de autentificare și detectare.

De aceea, crearea și diseminarea resurselor educaționale, dezvoltarea unor instrumente automate de verificare și adoptarea unor standarde digitale de securitate în imagistica medicală sunt pași considerați critici de autori pentru a limita riscurile.

Informații despre publicare și referințe

Articolul intitulat „The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs” a fost semnat de o echipă extinsă de autori, între care Mickael Tordjman, Murat Yuce, Amine Ammar, Mingqian Huang, Fadila Mihoubi Bouvier, Maxime Lacroix, Anis Meribout, Ian Bolger, Efe Ozkaya, Himanshu Joshi, Amine Geahchan, Rayane El Rahi, Haidara Almansour, Ashwin Singh Parihar, Carolyn Horst, Samet Ozturk, Muhammed Edip Isleyen, Gul Gizem Pamuk, Ahmet Tan Cimilli, Timothy Deyer, Arvin Calinghen, Enora Guillo, Rola Husain, Jean-Denis Laredo, Zahi A. Fayad, Xueyan Mei și Bachir Taouli.

Studiul este publicat în Radiology (volumul 318, numărul 3) și poate fi consultat prin identificatorul DOI 10.1148/radiol.252094. Pentru context editorial și o sinteză a principalelor concluzii puse la dispoziție de Radiological Society of North America, informațiile sunt disponibile și pe pagina publică a știrii.

Resurse suplimentare puse la dispoziție de autori, inclusiv setul de date curat și chestionarele interactive destinate instruirii, urmăresc să sprijine pregătirea personalului medical și dezvoltarea de instrumente de detecție care să contracareze amenințările reprezentate de imagistica medicală generată artificial.

Pe măsură ce tehnologia de generare a imaginilor medicale avansează, comunitatea radiologică, dezvoltatorii de software medical și factorii de decizie din sănătate sunt îndemnați să colaboreze pentru a stabili protocoale, standarde și mecanisme tehnologice care să protejeze integritatea diagnosticului imagistic și siguranța pacientului.

Mai multe detalii pot fi consultate în anunțul publicat online: Articolul RSNA pe ScienceDaily și în referința științifică disponibilă prin DOI: Studiul publicat în Radiology (DOI 10.1148/radiol.252094).

AI 24 Știri
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.