Deepfake e politica, come sono le regole in Italia e in Europa. Allarme dopo gli ultimi episodi
Dalla foto dell’agente a Torino modificata con l’AI al caso lituano del video doppiato con voci sintetiche, i contenuti manipolati entrano nel confronto politico
di Lorenzo Pace (Il Sole 24 Ore) e Ieva Kniukstiené (Elta, Lituania)
4' di lettura
4' di lettura
Potremmo dire che il dibattito sull’utilizzo dell’Intelligenza artificiale in Italia è entrato in una seconda fase. Non più teorica, delimitata quindi a casi ipotetici, ma a episodi concreti. L’ultimo è recente, di fine gennaio, e riguarda una fotografia. Cioè quella dell’agente ferito negli scontri durante il corteo pro Askatasuna di Torino, pubblicata direttamente dalla Polizia. Il problema? Era modificata con l’Ai, anche se non palesemente.
Per riconoscere la “mano” artificiale, infatti, è stato decisivo il video dell’aggressione, da cui i siti di fact checking hanno notato alcuni dettagli e fatto emergere che quell’immagine non fosse autentica. Il tema era già diventato politico, come tutta la vicenda, nei giorni in cui, tra l’altro, era in lavorazione la bozza definitiva del decreto sicurezza dal governo, approvato pochi giorni dopo in Consiglio dei ministri, con misure anche a favore degli agenti.
Il tocco dell’Ai riguarda foto, video e anche audio. Come è successo con l’uso di una voce sintetica, clonata con tecniche di intelligenza artificiale, attribuita al ministro della Difesa Guido Crosetto.
Dal punto di vista normativo, l’Unione europea ha avviato una risposta strutturata con l’Ai Act, che introduce obblighi di trasparenza per i contenuti generati artificialmente e regole più stringenti per gli usi ad alto rischio. Tuttavia, l’entrata in vigore del regolamento sarà graduale e non immediata. Nel frattempo, il Digital Services Act si concentra soprattutto sulle responsabilità delle piattaforme online nella moderazione dei contenuti, lasciando in parte scoperto il tema dell’uso politico intenzionale dei media sintetici da parte di partiti, candidati o gruppi organizzati.
Ecco perché in Italia ci sono state altre iniziative. Pagella Politica e Facta, ad esempio, hanno proposto ai partiti un impegno pubblico a non utilizzare l’intelligenza artificiale per creare o diffondere contenuti ingannevoli durante le campagne elettorali, invitando a dichiarare esplicitamente l’eventuale uso di strumenti di Ai nella comunicazione politica. La proposta, pur priva di effetti vincolanti, vuole colmare temporaneamente il vuoto regolatorio e rafforzare la fiducia degli elettori, affidandosi più alla pressione reputazionale che a sanzioni formali.


