Ricerca

Radiografia perfetta ma falsa: così l’intelligenza artificiale inganna i medici

Una frattura può essere simulata in modo così preciso da risultare credibile quanto una vera aprendo scenari delicati e potenzialmente pericolosi

di Maria Rita Montebelli

A patient has a radiograph taken of his chest and digitally displayed on a screen at the Lady Reading government hospital, a day ahead of 'World Radiography Day', in Peshawar, Pakistan, 07 November 2023. ANSA/BILAWAL ARBAB 33653 EPA

3' di lettura

English Version

3' di lettura

English Version

C’è uno strumento, nella pratica clinica, che sembra rendere tutto immediatamente evidente: l’immagine radiografica che appare davanti ai nostri occhi, ci racconta una storia precisa: quella di un osso fratturato, di un’infezione, di una neoplasia. Perché le radiografie, da sempre, rappresentano una delle prove più “oggettive” della medicina. O almeno lo erano. Perché oggi, questa certezza apodittica inizia a vacillare.

Una ricerca pubblicata sulla rivista Radiology apre infatti uno scenario fino a poco tempo fa impensabile: l’intelligenza artificiale è in grado di creare delle immagini radiografiche così realistiche da ingannare persino i radiologi esperti. E non si tratta di piccoli ritocchi o di manipolazioni evidenti, ma di veri e propri deepfake clinici che, nelle mani sbagliate, potrebbero esporre a conseguenze davvero spiacevoli.

Loading...

L’intelligenza artificiale generativa (la tecnologia alla base di strumenti come ChatGPT) è ormai in grado di creare radiografie, a partire da semplici descrizioni testuali (i cosiddetti prompt). Nessun laboratorio radiografico, nessun macchinario: basta una descrizione e il fantomatico ‘algoritmo’. Ed ecco apparire dal nulla un’immagine radiografica anatomicamente plausibile, coerente, credibile. E soprattutto indistinguibile da una vera.

Lo studio su Radiology: occhio umano contro intelligenza artificiale

Lo studio appena pubblicato ha coinvolto 17 radiologi provenienti da diversi Paesi, che sono stati messi di fronte a centinaia di immagini radiografiche: alcune autentiche, altre prodotte dall’AI. Nella prima fase, senza essere stati informati della presenza di immagini artificiali, i medici hanno riconosciuto i fake solo nel 41% dei casi. Una volta edotti della possibile presenza di ‘falsi’, il loro occhio è diventato più attento e critico e la percentuale di svelamento dei fake è salita al 75% circa, non abbastanza da eliminare il problema comunque.

E purtroppo il problema non si limita all’attenzione o di esperienza ‘umana’. Anche i sistemi di intelligenza artificiale hanno problemi ad individuare le false immagini radiografiche. Nessuno è stato in grado di individuare tutti i falsi. Nemmeno l’algoritmo che li aveva generati (in questo caso ChatGPT).

Il rischio di frodi sanitarie e oltre

Il dato più inquietante - sottolinea il primo autore dello studio, il dottor Mickael Tordjman dell’Icahn School of Medicine del Mount Sinai di New York - è che queste immagini non solo sono realistiche, ma sono anche clinicamente plausibili. Una frattura può essere simulata in modo così preciso, da risultare credibile quanto una vera. E questo apre scenari delicati e potenzialmente pericolosi.

Perché se un’immagine può essere creata dal nulla con questo livello di qualità, può anche essere usata o manipolata per scopi davvero poco nobili: dalla falsificazione di documenti medici, a frodi assicurative, alla manipolazione dei risultati della ricerca scientifica. E il rischio non è teorico, perché tutto questo è già tecnicamente possibile.

Ma a ben guardare – commentano gli autori – qualche ‘alert’ queste immagini artificiali lo mandano, Intanto, tendono a essere troppo perfette: le ossa appaiono troppo ‘lisce’, abbondano di simmetrie sospette e una serie di dettagli sono ripetuti con una regolarità innaturale. Ma sono indizi impercettibili e frammentari, che richiedono grande attenzione e una formazione specifica per essere colti.

Come difendersi dalle false immagini generate dall’AI

È proprio su questo punto che gli autori dello studio insistono: oggi la sfida non è più solo quella di interpretare correttamente un’immagine, ma di verificarne l’autenticità. Un cambiamento impegnativo che impone l’acquisizione di nuovi strumenti, nuove competenze e la creazione di nuove regole.

Le soluzioni proposte vanno da sistemi automatici di rilevamento dei deepfake, all’obbligatorietà dei watermark (segni distintivi, come un logo, un timbro o una scritta semitrasparente, sovrapposti ad un’immagine) per le immagini generate dall’AI, ad un maggior controllo sui dataset utilizzati per addestrare gli algoritmi. Ma soprattutto, è necessario formare i medici e insegnare loro a convivere con questa nuova possibile e scivolosa realtà.

Il titolo di un’editoriale che accompagna lo studio riassume questi concetti in modo tranchant: “La democratizzazione dell’inganno: vedere non è più credere”. Una frase che, applicata al contesto medico, assume un peso particolare.

Perché quando a venir meno è addirittura la fiducia nelle immagini, non è più solo una questione tecnologica, ma è un tema che investe la sicurezza, l’etica e il rapporto medico-paziente.

E dunque, il grande capitolo ‘ti sblocco una nuova angoscia’ si arricchisce di questo nuovo pericolo. Anche una radiografia, la ‘verità’ clinica per antonomasia, da oggi andrà osservata con maggior attenzione e con un pizzico di sospetto.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti