Digitale e adolescenti

Dubbi, risposte, leggi mancate: in ritardo le tutele per i minori

La corrispondenza, emersa dagli atti, dimostra un dibattito interno alle Big Tech dal 2017

di Marisa Marraffino

 (AdobeStock)

3' di lettura

English Version

3' di lettura

English Version

Agli atti del processo un fiume di email interne di dipendenti preoccupati per il benessere degli utenti, di quello dei propri figli e delle scarse risorse investite per la sicurezza degli adolescenti. Tra queste, quella di una dirigente del reparto design di Meta che scriveva direttamente a Mark Zuckerberg riferendo di non «dormire la notte» se non avesse raccontato le proprie preoccupazioni. Una delle due figlie adolescenti, infatti, era stata ricoverata due volte in ospedale anche per dismorfismo corporeo, e - a suo dire - i social network avrebbero dovuto allentare la pressione sui modelli di bellezza irraggiungibili per minimizzare i possibili rischi per i minorenni.

«Un giorno, guardandoci indietro – scriveva la donna – spero che potremo essere fieri delle decisioni prese». Una frase che suona come un monito, mentre il “Team Teens” creato da Zuckerberg era tutto proiettato a investire sugli ingegneri, arruolati per tenere incollati gli adolescenti agli schermi e studiare nuove soluzioni per non perdere utenti.

Loading...

I documenti

In una email del 1° aprile 2020, lo stesso Zuckerberg definiva “paternalistico” il fatto di limitare le possibilità delle persone di presentarsi come volessero, riferendosi alla discussione interna sull’opportunità o meno di mantenere i filtri bellezza su Instagram. «Non sono sicuro - continuava - che arrivati a questo punto sia facile cambiare impostazione». Per Zuckerberg non c’erano dati chiari sui danni derivanti dall’uso dei filtri o dal funzionamento dei suoi algoritmi.

In alcune email interne del 2018 venivano citati alcuni studi per i quali l’uso dei social media avrebbe avuto sulla depressione adolescenziale lo stesso effetto del “mangiare patate”. Una sottovalutazione del rischio, alla luce delle ultime sentenze, che aveva dato luogo a una fitta corrispondenza che dimostra un dibattito interno molto acceso già dal 2017 e il tentativo di spostare le preoccupazioni esterne su altri fronti. I dirigenti Meta monitoravano le notizie che uscivano sui principali media di tutto il mondo e le normative approvate, tentando di trovare risposte “plausibili” da concordare nelle loro uscite pubbliche.

Già dal 2018 il team di ricerca cercava argomentazioni scientifiche per contrastare la narrazione della “dipendenza da social media”, sostenendo che le cause andassero cercate anche altrove, ad esempio, nelle disuguaglianze sociali o nei problemi di salute individuali. Un copione che non sembrava reggere davanti a molte evidenze scientifiche e alle critiche dei vertici stessi di Meta che scrivevano: «Il fatto che abbiamo limiti di età non rispettati rende difficile sostenere che stiamo facendo tutto il possibile». I responsabili del benessere di Meta, ai quali erano destinati investimenti bassi rispetto a quelli ingegneristici, ponevano continuamente domande e dubbi, dimostrando di preoccuparsi del problema, ma di non poter fare abbastanza: «C’è modo di reindirizzare immediatamente una persona verso il supporto se cerca o prova a postare contenuti di autolesionismo, invece di farglieli vedere?»; o anche: «Non possiamo attribuire tutta la colpa all’utente, senza riconoscere il nostro ruolo nel problema». Ed ancora: «Il fatto che diciamo di non consentire ai minori di 13 anni l’accesso alle nostre piattaforme, ma non abbiamo alcun modo per farlo rispettare, è semplicemente indifendibile».

Il ritardo dei legislatori

La fitta corrispondenza, alla luce degli episodi di autolesionismo che si sono verificati anche in Italia, disvela anche il fallimento del legislatore nel regolamentare sin dalla nascita le Big Tech. Mentre i legislatori di tutto il mondo stavano a guardare, le piattaforme amplificavano il loro potere, massimizzando i ricavi e investendoli in nuove tecnologie, per tenerci incollati più tempo possibile a uno schermo.

Soltanto dal 17 febbraio 2024 il Digital services act, il Regolamento europeo che dovrebbe proteggere gli utenti dai principali rischi massivi, ha trovato applicazione anche in Italia, mentre dal 2017 medici e studiosi di tutto il mondo stavano lanciando l’allarme sulla sicurezza dei social, soprattutto per i più piccoli. Già nel 2019 la responsabile delle politiche pubbliche di Instagram faceva presente che «la mancanza di azione proattiva nel rilevare account sotto i 13 anni» avrebbe minato «la credibilità generale» della piattaforma e che molti contenuti di autolesionismo e suicidi continuavano a circolare nonostante non fossero idonei a utenti al di sotto dei quindici/sedici anni. Continui i confronti sulle legislazioni e le ricerche mediche riportate dalla stampa.

La sensazione netta, leggendo gli atti, è che la sicurezza degli adolescenti non fosse una priorità e che il rischio fosse stato costantemente sottovalutato non soltanto dai Big Player ma anche dal legislatore arrivato in ritardo a occuparsi della sicurezza sui social, soprattutto degli utenti più fragili.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti