Intervento

Social media e dipendenza: Europa più avanti degli Usa. Ma la sfida è far rispettare le regole

L’Unione europea ha anticipato con il DSA un approccio rigoroso alla gestione dei rischi e alla trasparenza delle piattaforme, ponendo particolare attenzione alla protezione dei minori e ai contenuti dannosi

di Marco Bassini e Carlo Melzi d'Eril

Adobestock

3' di lettura

English Version

3' di lettura

English Version

I verdetti delle giurie di New Mexico e California, che hanno condannato alcune piattaforme a multe molto “salate” per non avere adeguatamente protetto i minori e per avere indotto alla dipendenza nell’uso dei social media, sono stati salutati come una svolta nel tradizionale inquadramento statunitense del ruolo e della responsabilità dei colossi digitali per contenuti illeciti o dannosi di terzi.

Pur trattandosi di una novità importante, non si può certo ritenere che tale mutamento di approccio costituisca una novità assoluta a livello globale, essendosi esso già affermato da alcuni anni nel panorama europeo, dove va peraltro consolidandosi. Nel 2022 l’Unione europea ha infatti emanato il regolamento sui servizi digitali (noto come Digital Services Act o DSA), prendendo atto di una complessità intrinseca dei servizi digitali e dei relativi modelli di business non più governabile secondo le maglie larghe della normativa previgente, risalente addirittura al 2000 e pensata per il commercio elettronico più che per le piattaforme digitali. Il regolamento segue un approccio basato sul rischio: a un maggior grado di complessità e diffusione dei servizi corrisponde un livello di rischio più elevato e dunque l’applicazione di obblighi più stringenti. Così diversificando requisiti e obblighi, si è preso atto che i servizi digitali non sono tutti uguali.

Loading...

Nel consegnare questo rinnovato quadro giuridico ormai pienamente a regime a distanza di quattro anni dalla sua adozione, l’Unione europea ha codificato un rinnovato ruolo delle piattaforme digitali (specie di quelle di grandi dimensioni) nella sfera pubblica. Ha infatti previsto obblighi di gestione dei vari rischi e requisiti particolari che riflettono la centralità di questi attori nella circolazione di contenuti, andando così oltre i meccanismi di attribuzione della responsabilità in caso di illeciti (che sono rimasti intatti).

Così, il messaggio che si evince dai responsi delle giurie statunitensi, ossia che a rilevare non è più soltanto il contenuto ma il design del prodotto, non suona poi così nuovo a chi vanti una familiarità con quanto stabilito nel “vecchio continente”. Ciò è tanto vero che, il regolamento vieta ai fornitori di piattaforme online di progettare, organizzare o gestire le loro interfacce in modo da ingannare o manipolare i destinatari dei servizi o da falsare o compromettere la capacità di questi ultimi di prendere decisioni libere e informate. Un vincolo analogo, dunque, a quello dei verdetti statunitensi. Correlato a questo divieto è l’obbligo di trasparenza legato ai sistemi di raccomandazione di contenuti (in sostanza una modalità di profilazione), che impone ai fornitori di indicare, tra l’altro, i relativi parametri di funzionamento.

Un secondo punto riguarda la tutela dei minori. Sono imposte misure adeguate e proporzionate per la protezione e la sicurezza dei minori ed è vietata invece la profilazione dei loro dati personali.

Infine, sono previsti obblighi di valutazione e mitigazione di rischi sistemici per piattaforme che contano più di 45 milioni di utenti nel territorio della Ue. Si tratta, forse, del meccanismo più rilevante, che impone ai fornitori di servizi, in ragione dell’elevato impatto sulla sfera pubblica dei contenuti diffusi con i loro servizi, la gestione del rischio legato sia a contenuti illeciti sia a contenuti dannosi, in particolare quello inerente a violenza di genere, protezione della salute e dei minori nonché al benessere fisico e mentale della persona.

A ben vedere, sono proprio questi i rischi materializzatisi nelle vicende all’attenzione delle giurie statunitensi e non debitamente neutralizzati, facendo così delle piattaforme sia un veicolo di contenuti illeciti sia (soprattutto) un prodotto progettato per agevolare dipendenza, senza un effettivo controllo né la necessaria trasparenza. La vera sfida per le istituzioni europee è rendere effettivo questo quadro normativo, garantendone l’applicazione nei confronti di alcuni colossi del web in particolare che non hanno nascosto una certa neghittosità rispetto alla loro adesione alle regole della Ue.

Nuova indagine dell'Ue su X e l'uso dell'IA Grok

A complicare il quadro, poi, vi è l’integrazione crescente di sistemi di intelligenza artificiale in servizi digitali. La recente indagine avviata sull’integrazione del chatbot Grok nella piattaforma social X è un esempio eloquente del compito non agevole che attende la Commissione.

Insomma, e lo scriviamo con un certo orgoglio, ci sembra che l’Europa sia ancora una volta uno dei pochi luoghi ove si tenta di tenere al centro i diritti delle persone.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti