Non solo Ai

Deepfake e politica, come sono le regole in Italia e in Europa. Allarme dopo gli ultimi episodi

Dalla foto dell’agente a Torino modificata con l’AI al caso lituano del video doppiato con voci sintetiche, i contenuti manipolati entrano nel confronto politico

di Lorenzo Pace (Il Sole 24 Ore) e Ieva Kniukstiené (Elta, Lituania)

La foto finita sotto accusa dell'agente Alessandro soccorso da un collega, dopo l'aggressione da parte di un gruppo di manifestanti, durante gli scontri che hanno seguito il corteo contro lo sgombero del centro sociale Askatasuna. Torino, 1 febbraio 2026, ANSA/Ufficio stampa Polizia di Stato

4' di lettura

English Version

4' di lettura

English Version

Potremmo dire che il dibattito sull’utilizzo dell’Intelligenza artificiale in Italia è entrato in una seconda fase. Non più teorica, delimitata quindi a casi ipotetici, ma a episodi concreti. L’ultimo è recente, di fine gennaio, e riguarda una fotografia. Cioè quella dell’agente ferito negli scontri durante il corteo pro Askatasuna di Torino, pubblicata direttamente dalla Polizia. Il problema? Era modificata con l’Ai, anche se non palesemente.

Per riconoscere la “mano” artificiale, infatti, è stato decisivo il video dell’aggressione, da cui i siti di fact checking hanno notato alcuni dettagli e fatto emergere che quell’immagine non fosse autentica. Il tema era già diventato politico, come tutta la vicenda, nei giorni in cui, tra l’altro, era in lavorazione la bozza definitiva del decreto sicurezza dal governo, approvato pochi giorni dopo in Consiglio dei ministri, con misure anche a favore degli agenti.

Loading...

Il tocco dell’Ai riguarda foto, video e anche audio. Come è successo con l’uso di una voce sintetica, clonata con tecniche di intelligenza artificiale, attribuita al ministro della Difesa Guido Crosetto.

Dal punto di vista normativo, l’Unione europea ha avviato una risposta strutturata con l’Ai Act, che introduce obblighi di trasparenza per i contenuti generati artificialmente e regole più stringenti per gli usi ad alto rischio. Tuttavia, l’entrata in vigore del regolamento sarà graduale e non immediata. Nel frattempo, il Digital Services Act si concentra soprattutto sulle responsabilità delle piattaforme online nella moderazione dei contenuti, lasciando in parte scoperto il tema dell’uso politico intenzionale dei media sintetici da parte di partiti, candidati o gruppi organizzati.

Ecco perché in Italia ci sono state altre iniziative. Pagella Politica e Facta, ad esempio, hanno proposto ai partiti un impegno pubblico a non utilizzare l’intelligenza artificiale per creare o diffondere contenuti ingannevoli durante le campagne elettorali, invitando a dichiarare esplicitamente l’eventuale uso di strumenti di Ai nella comunicazione politica. La proposta, pur priva di effetti vincolanti, vuole colmare temporaneamente il vuoto regolatorio e rafforzare la fiducia degli elettori, affidandosi più alla pressione reputazionale che a sanzioni formali.

Ai a due velocità nel mondo, cosa dice l'ultimo report di Microsoft

L’appello ha smosso il Parlamento. È attualmente in corso un iter legislativo specifico sui deepfake, con una proposta di legge del Partito democratico – attesa in aula alla Camera a fine febbraio 2026 – che mira a vietare la creazione e la diffusione di video, immagini o audio manipolati con intelligenza artificiale nel corso di campagne elettorali, includendo elezioni e referendum, se finalizzati a ingannare gli elettori e a influenzare il voto. Il testo interviene sulla legge ordinaria del 1956 che disciplina la propaganda elettorale e affida all’Autorità per le garanzie nelle comunicazioni la vigilanza e la rimozione dei contenuti illegali, nonché la possibilità di imporre sanzioni economiche alle piattaforme che non ottemperano alle disposizioni.

La proposta si inserisce in un quadro normativo nazionale già aggiornato nel 2025 con l’introduzione nel Codice penale dell’articolo 612-quater, che punisce la diffusione illecita di contenuti generati o manipolati con Ai senza consenso della persona ritratta con pene da uno a cinque anni di reclusione. Tuttavia, quella norma ha un ambito generale e non è specificamente focalizzata sull’incidenza dei deepfake nelle competizioni politiche, motivo per cui il progetto di legge Pd prevede una fattispecie ad hoc.

L’obiettivo è intervenire prima del definitivo exploit di contenuti falsi ma praticamente identici a quelli reali, sempre più difficili da distinguere per i cittadini. Farlo adesso, quando ancora è possibile identificare un video o una foto falsa, in vista dei prossimi impegni elettorali.

Il caso Lituania, tra vuoti normativi e strumenti tecnici

Il dibattito non riguarda solo l’Italia. In Lituania, il tema dei contenuti sintetici è già approdato sul tavolo dell’autorità di regolazione dei media. Il presidente della Commissione lituana per la radio e la televisione (LRTK), Mantas Martišius, ha evidenziato come il diritto nazionale non definisca in modo preciso in quali condizioni e nei confronti di chi debba essere rivelata l’identità di chi crea o diffonde contenuti falsificati. Il problema, ha spiegato, è anche operativo: l’autorità che monitora i flussi informativi non ha poteri diretti per ottenere i dati dagli operatori delle piattaforme social. Solo procura e polizia possono farlo in caso di reati gravi. Questo rallenta le reazioni e rende difficile intervenire prima che il contenuto manipolato si diffonda in modo virale.

Andrius Katinas, responsabile della supervisione degli operatori economici presso la LRTK, ha sottolineato che l’aggiornamento normativo deve procedere insieme al rafforzamento degli strumenti tecnici, in particolare delle attività di Open Source Intelligence (Osint). La Commissione utilizza già da anni strumenti Osint per indagare su contenuti vietati o violazioni del copyright, ma – secondo Katinas – serve una maggiore competenza specialistica diffusa e un investimento parallelo in tecnologia e formazione. Secondo Martišius, è essenziale che il quadro normativo nazionale stabilisca in modo chiaro obblighi di identificazione degli autori di contenuti falsi, così che le piattaforme siano consapevoli dell’esistenza di un obbligo giuridico specifico quando vengono interpellate dalle autorità.

Nel 2024 la LRTK ha condotto 41 indagini su contenuti audiovisivi illegali, inclusi servizi pirata e segmenti di video propagandistici falsificati. In queste attività sono stati impiegati strumenti di intelligenza artificiale e Osint per analizzare origine, diffusione, attività di bot e schemi ricorrenti.

Sempre in Lituania, nel 2024 la LRTK ha multato il politico Eduardas Vaitkus, ex candidato alla presidenza della Repubblica, per aver pubblicato illegalmente la registrazione di una trasmissione dell’emittente pubblica LRT senza consenso, traducendola e doppiandola in russo.

Il video pubblicato su YouTube presentava un elemento ulteriore: le voci del conduttore e degli ospiti risultavano identiche o molto simili alle originali, ma parlavano in russo. Inoltre, il contenuto tradotto non sempre corrispondeva fedelmente all’originale in lituano, contribuendo a costruire una narrazione divergente. Non veniva indicato che si trattasse di un contenuto generato e doppiato con intelligenza artificiale, in potenziale violazione anche delle regole della piattaforma sull’obbligo di etichettatura dei contenuti sintetici. In quel caso, la sanzione è stata irrogata per violazione del diritto d’autore. Tuttavia, il contenuto presentava anche un profilo di disinformazione nel contesto della normativa lituana sull’informazione al pubblico e della legge elettorale per il Seimas.

*Questo articolo rientra nel progetto di giornalismo collaborativo europeo “Pulse”

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti