Rete pericolosa

Deepfake porno, 1 adolescente su 10 conosce le vittime

I dati di Thorn, gruppo no profit americano che si occupa di sicurezza dei più giovani, che fa luce sul fenomeno in crescita dei deepfake nude che può colpire tutti. Gli interventi del Garante

di Redazione Scuola

(Adobe Stock)

2' di lettura

English Version

2' di lettura

English Version

Un ragazzo su 8 tra i 13 e i 20 anni, e un adolescente su 10 tra i 13 e i 17 anni, ha dichiarato di “conoscere personalmente qualcuno” che è stato oggetto di immagini di nudo deepfake, e 1 su 17 è stato lui stesso vittima. Sono alcuni dati di Thorn, un gruppo no profit americano che si occupa di sicurezza dei più giovani, che fa luce sul fenomeno in crescita dei deepfake nude, una sottocategoria dei deepfake.

L'applicazione

Con appositi software - come Clothoff bloccato dal Garante Privacy - si è in grado di spogliare un soggetto, creando così un'immagine di nudo realizzata artificialmente e senza il consenso del soggetto. Ne sono state vittime personaggi famosi come Taylor Swift - nel 2014 una sua immagine porno finta fu vista sui social da milioni di persone - e può colpire tutti. Secondo Graphika, un'azienda che analizza i social network, milioni di persone visitano ogni mese gli oltre 100 siti di 'nudify' online. E, secondo una indagine in Gran Bretagna della società di sicurezza Eset, una donna su 10 è stata vittima di deepfake pornography. Oltre a 'Clothoff' altre applicazioni come BikiniOff e DeepNude manipolando foto di individui e riescono a ricreare contenuti falsi a contenuto pornografico.

Loading...

Il Garante

Già nel 2020 il Garante Privacy si era occupato di tali tematiche e aveva aperto un'istruttoria nei confronti di Telegram, canale tramite il quale venivano diffusi questi bot. In seguito, l'Autorità aveva fornito una scheda informativa connessa ai possibili rischi dell'uso di queste tecnologie, così da sensibilizzare gli utenti. Sempre secondo la ricerca di Thorn, il 13% degli adolescenti ha dichiarato di conoscere qualcuno che ha utilizzato l'intelligenza artificiale per creare o ridistribuire materiale pornografico deepfake di minori. Anche in Italia si sono verificati casi di cronaca legati ai deepfake porno. Nel 2023 sono stati fermati due studenti di una scuola media di Roma che hanno pubblicato sui social le foto di alcune coetanee create con l'applicazione BikiniOff. Nel 2024 in provincia di Latina cinque studenti minorenni hanno fatto la stessa cosa prendendo, e poi falsificando, le foto di alcune compagne dai loro profili Instagram.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter Scuola+

La newsletter premium dedicata al mondo della scuola con approfondimenti normativi, analisi e guide operative

Abbonati