Dai deepfake di Taylor Swift alle fake news con ChatGpt: come difendersi dalla disinformazione elettorale?
Esistono da tempo strumenti di data journalism online e consigli per svelare la fonte di una notizia o, per esempio, per scoprire i metadati di una foto. Ma ora la strategia dei produttori di bufale è cambiata
4' di lettura
I punti chiave
4' di lettura
L’ex presidente degli Stati Uniti, Donald Trump, ha pubblicato sul social Truth nel week end una serie di immagini generate dall’intelligenza artificiale, tra cui un falso endorsement da parte della stella pop Taylor Swift, scatenando proteste e polemiche sulla disinformazione elettorale.
«Accetto», scrive, dopo aver condiviso una serie di immagini in cui si vedono donne che indossano magliette con la scritta “Swifties for Trump”. Lo staff della popolarissima cantante e Persona dell’Anno 2023 di Time ha smentito qualsiasi sostegno.
Molte delle foto postate sembrano chiaramente manipolate, mentre un’altra è di un giornale satirico in cui si sosteneva che la cancellazione dei concerti di Taylor a Vienna per una minaccia terroristica avrebbero convinto la cantante a schierarsi con Trump. C’è infine una foto della stessa Swift con addosso il costume dello Zio Sam: l’immagine, anche questa chiaramente manipolata, è accostata al messaggio “Taylor vuole che tu voti per Donald Trump”. Il motivo perché Trump lo ha fatto è chiaro. Taylor Swift nel 2020 ha espresso il suo sostegno a Joe Biden. Non si è ancora espressa per Kamala Harris ma ad oggi è una delle artiste più influenti della scena mondiale, sui social può contare su 283 milioni di follower su Instagram e 93 milioni di seguaci su X e sono tutti giovani e giovanissimi. Parliamo di un pubblico a cui qualsiasi candidato alle elezioni è interessato. Con qualsiasi mezzo, anche postando contenuti chiaramente falsi.
Come si può contrastate il deepfake?
Negli Stati Uniti numerosi stati americani hanno introdotto leggi contro i deepfake in ambito elettorale; queste norme si applicano principalmente a rappresentazioni plausibili. Le foto ri-postate da Trump sono tutto tranne che plausibili. Probabilmente solo Taylor Swift potrebbe ricorrere ai giudici per utilizzo non autorizzato della proprio immagine o per diffamazione. Si apre però un precedente pericoloso, perché usando l’Ai in modo grossolano, creando immagini poco realistiche e estreme si fanno circolare contenuti che contengono palesi fake news ma possono in qualche modo influenzare le elezioni. In un Paese attento come gli Stati Uniti alla libertà di espressione può essere complicato perseguire questo tipo di contenuti, che potrebbero essere scambiati per contenuti satirici. Un esempio è questa foto di Kamala Harris al comizio di Chicago circondata da bandiere con la falce e martello.
Il caso della campagna Storm 2035
Diverso è il discorso delle fake news generate con l’AI. OpenAI ha appena scoperto e bloccato alcuni account iraniani che utilizzavano ChatGPT per diffondere disinformazione online. Tra i contenuti prodotti, alcuni riguardavano le elezioni presidenziali statunitensi. In una nota, la società ha affermato di aver identificato account che sfruttavano il chatbot per generare contenuti per cinque siti web, sia in inglese che in spagnolo. La campagna, chiamata “Storm-2035”, aveva lo scopo di seminare divisione e confusione su temi caldi come le elezioni presidenziali, i diritti LGBTQ+ e la guerra a Gaza, impersonando fonti conservatrici e progressiste. Come scrive Engadget, gli hacker iraniani hanno creato una rete di falsi siti web e account sui social media per diffondere contenuti manipolativi, ma i loro sforzi sono stati in gran parte vani. La maggior parte dei post pubblicati ha ricevuto pochissima attenzione, rivelando la fragilità della campagna. I cybercriminali avrebbero cercato di influenzare anche l’opinione pubblica su questioni internazionali come le Olimpiadi e la politica venezuelana.





