Economia Digitale

Dai deepfake di Taylor Swift alle fake news con ChatGpt: come difendersi dalla disinformazione elettorale?

Esistono da tempo strumenti di data journalism online e consigli per svelare la fonte di una notizia o, per esempio, per scoprire i metadati di una foto. Ma ora la strategia dei produttori di bufale è cambiata

di Luca Tremolada

511979916

4' di lettura

4' di lettura

L’ex presidente degli Stati Uniti, Donald Trump, ha pubblicato sul social Truth nel week end una serie di immagini generate dall’intelligenza artificiale, tra cui un falso endorsement da parte della stella pop Taylor Swift, scatenando proteste e polemiche sulla disinformazione elettorale.

«Accetto», scrive, dopo aver condiviso una serie di immagini in cui si vedono donne che indossano magliette con la scritta “Swifties for Trump”. Lo staff della popolarissima cantante e Persona dell’Anno 2023 di Time ha smentito qualsiasi sostegno.

Loading...

Molte delle foto postate sembrano chiaramente manipolate, mentre un’altra è di un giornale satirico in cui si sosteneva che la cancellazione dei concerti di Taylor a Vienna per una minaccia terroristica avrebbero convinto la cantante a schierarsi con Trump. C’è infine una foto della stessa Swift con addosso il costume dello Zio Sam: l’immagine, anche questa chiaramente manipolata, è accostata al messaggio “Taylor vuole che tu voti per Donald Trump”. Il motivo perché Trump lo ha fatto è chiaro. Taylor Swift nel 2020 ha espresso il suo sostegno a Joe Biden. Non si è ancora espressa per Kamala Harris ma ad oggi è una delle artiste più influenti della scena mondiale, sui social può contare su 283 milioni di follower su Instagram e 93 milioni di seguaci su X e sono tutti giovani e giovanissimi. Parliamo di un pubblico a cui qualsiasi candidato alle elezioni è interessato. Con qualsiasi mezzo, anche postando contenuti chiaramente falsi.

Loading...

Come si può contrastate il deepfake?

Negli Stati Uniti numerosi stati americani hanno introdotto leggi contro i deepfake in ambito elettorale; queste norme si applicano principalmente a rappresentazioni plausibili. Le foto ri-postate da Trump sono tutto tranne che plausibili. Probabilmente solo Taylor Swift potrebbe ricorrere ai giudici per utilizzo non autorizzato della proprio immagine o per diffamazione. Si apre però un precedente pericoloso, perché usando l’Ai in modo grossolano, creando immagini poco realistiche e estreme si fanno circolare contenuti che contengono palesi fake news ma possono in qualche modo influenzare le elezioni. In un Paese attento come gli Stati Uniti alla libertà di espressione può essere complicato perseguire questo tipo di contenuti, che potrebbero essere scambiati per contenuti satirici. Un esempio è questa foto di Kamala Harris al comizio di Chicago circondata da bandiere con la falce e martello.

511979916

Il caso della campagna Storm 2035

Diverso è il discorso delle fake news generate con l’AI. OpenAI ha appena scoperto e bloccato alcuni account iraniani che utilizzavano ChatGPT per diffondere disinformazione online. Tra i contenuti prodotti, alcuni riguardavano le elezioni presidenziali statunitensi. In una nota, la società ha affermato di aver identificato account che sfruttavano il chatbot per generare contenuti per cinque siti web, sia in inglese che in spagnolo. La campagna, chiamata “Storm-2035”, aveva lo scopo di seminare divisione e confusione su temi caldi come le elezioni presidenziali, i diritti LGBTQ+ e la guerra a Gaza, impersonando fonti conservatrici e progressiste. Come scrive Engadget, gli hacker iraniani hanno creato una rete di falsi siti web e account sui social media per diffondere contenuti manipolativi, ma i loro sforzi sono stati in gran parte vani. La maggior parte dei post pubblicati ha ricevuto pochissima attenzione, rivelando la fragilità della campagna. I cybercriminali avrebbero cercato di influenzare anche l’opinione pubblica su questioni internazionali come le Olimpiadi e la politica venezuelana.

I numeri della disinformazione e l’Ai

«Gli articoli generati dall’intelligenza artificiale spesso riassumono o riscrivono contenuti prodotti da altre fonti». Lo ha scritto l’associazione NewsGuard, che da tempo valuta l’affidabilità dei siti di notizie di tutto il mondo, al termine di un report che ha identificato da maggio 2023 a febbraio di quest’anno 725 siti web di notizie e informazioni generate dall’intelligenza artificiale, senza alcuna supervisione umana, e ne sta monitorando l’attività di produzione di false narrazioni con il suo AI Tracking Center.

Per quanto riguarda gli appuntamenti elettorali, in agosto gli analisti di NewsGuard hanno identificato 104 narrazioni false diffuse sui social network e individuato 240 siti che hanno contribuito a farle circolare online. Nelle settimane immediatamente successive alle elezioni americane del 2020, hanno identificato 166 siti che diffondevano misinformazione sul voto. Queste affermazioni false sono ancora in circolazione tre anni dopo.

Le soluzioni tecnologiche e il buon senso

Esistono da tempo strumenti di data journalism online e consigli per svelare la fonte di una notizia o, per esempio, per scoprire i metadati di una foto. I produttori di intelligenza artificiale generativa hanno promesso l’introduzione di bollini per rendere riconoscibili i propri contenuti. Il Wall Street Journal, a inizio agosto, ha rivelato che OpenAI avrebbe sviluppato un software in grado di stabilire con una precisione del 99,9% se un testo è stato prodotto da una macchina oppure da una persona in carne e ossa. Secondo le fonti del giornale statunitense, il rischio di rilasciare questi watermark è quello di cannibalizzare una parte del business dell’AI generativa. Tuttavia, sul fronte della generazione di video e immagini, quasi tutti i giganti dell’AI hanno inserito filtri per rendere impossibile la creazione di immagini con personaggi pubblici.

Tutte le immagini generate da Imagen 3, il modello AI di Google, sono marchiate con lo strumento di filigrana SynthID, che inserisce una filigrana digitale direttamente nei pixel dell’immagine, rendendola rilevabile per l’identificazione ma impercettibile all’occhio umano. In prospettiva, sarà sempre più complicato generare immagini fake “dal basso” senza competenze informatiche e con gli strumenti più popolari di generazione di AI.

Il deep fake, ricordiamo, è un fenomeno che precede l’esplosione dell’intelligenza artificiale generativa. Per non cadere preda di queste bufale, sarà quindi necessaria una maggiore alfabetizzazione in tema di AI, ma soprattutto tanto buon senso. Del resto, se credi davvero che Kamala Harris sia un’esponente del comunismo sovietico, non è colpa dell’AI.

Riproduzione riservata ©
  • Luca Tremolada

    Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti