Guide

Nuovi paletti in Chatgpt, su salute, privacy, sesso: cosa cambia davvero per gli utenti

Dal 29 ottobre le regole sono cambiate in Chatgpt, per gli utenti, e in altri prodotti basati su OpenAI.

di Alessandro Longo

REUTERS

5' di lettura

English Version

5' di lettura

English Version

Dal 29 ottobre le regole sono cambiate in Chatgpt, per gli utenti, e in altri prodotti basati su OpenAI. Arrivano più tutele contro effetti dannosi dei chatbot, ma la confusione è grande sotto il cielo. Addirittura qualcuno scrive – sui social e qualche testata – che ora Chatgpt non ci può più dare consigli medici e legali. Sbagliato: continua a darli, com’è facile verificare. Il punto è che le regole sono un po’ un disclaimer dove OpenAI prende le distanze da alcuni possibili usi, sempre possibili ma vietati in teoria. Al tempo stesso, è vero che stabilisce alcune tutele pratiche più forti e immediate, ma solo per gli utenti più vulnerabili.

Facciamo chiarezza.

Le nuove regole arrivano dopo mesi di confronto con governi, ricercatori e utenti e per noi europei si iscrivono, un po’ alla larga, nei dettami del regolamento AI Act.

Loading...

I divieti più netti: armi, sorveglianza e manipolazione

Le nuove policy vietano in modo esplicito l’uso dei modelli per sviluppare, progettare o gestire armi. Ma anche per fare sorveglianza biometrica, riconoscimento facciale senza consenso (un po’ come fa invece l’AI di Clearview negli Usa, per le autorità di controllo dell’immigrazione).

Nello specifico: “sono vietate le banche dati di riconoscimento facciale senza il consenso dell’interessato; identificazione biometrica remota in tempo reale in spazi pubblici. Uso dell’immagine di un soggetto senza il suo consenso, compresa la sua immagine fotorealistica o la sua voce, in modo tale da creare confusione circa l’autenticità”, si legge nelle policy.

Vietata anche la manipolazione delle opinioni pubbliche, leggi la disinformazione che ora – anche in forma grafica e video – sfrutta molto l’AI per essere efficace, sui social. Tra i divieti quello di usare il chatbot per “campagne politiche, attività di lobbying, interferenze nelle elezioni nazionali o internazionali o attività di smobilitazione”.

Vietato anche l’uso di Chatgpt per minacce, intimidazioni, molestie o diffamazione. Qui il pensiero corre ai deepfake, ad esempio quelli che denudano donne e poi sono pubblicati su piattaforme contro cui c’è in questi giorni in Italia una forte azione delle autorità. Vietato l’uso per “violenza sessuale o contenuti intimi non consensuali”, si legge nelle policy.

L’AI è però usata anche per fare minacce, sempre più: ad esempio mandando un video dove la vittima appare in una situazione di pericolo (minacciata da un coltello, con un cappio alla gola, secondo vari casi riportati da un recente articolo del New York Times).

Tra le altre cose vietate: uso del chatbot per finalità di suicidio, autolesionismo oppure promozione o agevolazione di disturbi alimentari. Terrorismo o violenza, compresa la violenza basata sull’odio. Sviluppo, acquisto o utilizzo di armi, comprese le armi convenzionali. Attività, beni o servizi illeciti, come truffe, frodi, ma anche “disonestà accademica”, vedi paper scritti con l’AI.

Specifici divieti riguardano “distruzione, compromissione o violazione del sistema o della proprietà altrui, incluse attività informatiche dannose o abusive o tentativi di violare i diritti di proprietà intellettuale altrui”. “Gioco d’azzardo con denaro reale”.

Ci sono divieti specifici a tutela dei minori: ad esempio per fare “materiale riconducibile a casi di abuso sessuale su minori, indipendentemente dal fatto che una parte di esso sia generata dall’IA”; adescamento di minori, esporre i minori a contenuti non adatti alla loro età, quali immagini esplicite di autolesionismo, contenuti sessuali o violenti; promuovere comportamenti alimentari o di esercizio fisico malsani presso i minori. Umiliare o stigmatizzare in altro modo il tipo di corporatura o l’aspetto fisico dei minori. Sfide pericolose per i minori. Giochi di ruolo sessuali o violenti con minori. Accesso di minori a beni o attività soggetti a limiti di età

Più sofisticati i divieti contro la profilazione. Vietato: valutare o classificare individui in base al comportamento sociale, alle caratteristiche personali o ai dati biometrici (inclusi punteggio sociale, profilazione o inferenza di attributi sensibili). Qui il pensiero corre invece alla Cina.

Vietato anche: formulare deduzioni sulle emozioni di un individuo sul posto di lavoro e in contesti educativi, salvo nei casi in cui ciò sia necessario per motivi medici o di sicurezza; valutare o prevedere il rischio che un individuo commetta un reato penale basandosi esclusivamente sulle sue caratteristiche personali o sulla profilazione. Vietati anche “scopi di sicurezza a livello nazionale o di intelligence senza la verifica e l’approvazione da parte nostra”, il che lascia a OpenAI la porta aperta per collaborazioni con i Governi.

Infine anche vietato fornire consulenze personalizzate che richiedono una licenza, come consulenze legali, finanziarie o mediche, senza l’opportuno coinvolgimento di un professionista abilitato. O anche per temi che toccano i diritti umani come i servizi pubblici essenziali, la migrazione, l’occupazione.

Insomma, sono esclusi tutti i casi di automazione delle decisioni ad alto impatto sulle persone – da parte di aziende o PA. Qui il giudizio umano deve restare centrale, come chiede l’AI Act.

Che significa per gli utenti

Ciò che significa per gli utenti? Chatgpt ha dei guardrail di sicurezza che vietano certi usi, ma è possibile aggirarli. In alcuni casi con relativa facilità – ad esempio per fare disinformazione, dove i confini con la libertà di espressione sono troppo complessi. In altri è più difficile, ad esempio nella creazione di nudi o immagini violente. Ci sono però nei forum (anche su Reddit) molte guide con prompt sofisticati, per aggirare le protezioni che OpenAI di volta in volta adotta, in una continua corsa tra guardie e ladri. Del resto OpenAI dice che è vietato anche “eludere le nostre misure di sicurezza”.

Le consulenze mediche e legali sono un caso a parte. Chatgpt non può sapere se è stato o no coinvolto il “professionista abilitato”, quindi è un po’ come se il divieto fosse un mettere le mani avanti su un problema poi scaricato sull’utente finale.

 

 

La gestione delle “conversazioni sensibili”

Un capitolo a parte riguarda la gestione delle conversazioni su temi di salute mentale, disagio o vulnerabilità personale. OpenAI ha annunciato che Chatgpt ora riconosce meglio quando un utente è vulnerabile (depressione, autolesionismo, psicosi…), grazie a un addestramento mirato con 170 esperti (psicologi, assistenti sociali, medici e ricercatori) e a nuovi filtri che riducono fino all’80% le risposte inadeguate o potenzialmente dannose in questi casi. In pratica, il modello non “censura” questi temi ma, nei casi individuati, evita di fornire diagnosi, terapie o consigli che dovrebbero provenire da professionisti qualificati. Se l’utente mostra segnali allarmanti (red flags) come “preferisco parlare con te che con persone reali”, Chatgpt non lo asseconderà più e anzi cercherà di spiegargli l’importanza di parlare con persone vere o eventualmente con professionisti per un aiuto immediato. Idem quando l’utente scriverà discorsi allucinatori o paranoici.

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti