Nuovi paletti in Chatgpt, su salute, privacy, sesso: cosa cambia davvero per gli utenti
Dal 29 ottobre le regole sono cambiate in Chatgpt, per gli utenti, e in altri prodotti basati su OpenAI.
5' di lettura
5' di lettura
Dal 29 ottobre le regole sono cambiate in Chatgpt, per gli utenti, e in altri prodotti basati su OpenAI. Arrivano più tutele contro effetti dannosi dei chatbot, ma la confusione è grande sotto il cielo. Addirittura qualcuno scrive – sui social e qualche testata – che ora Chatgpt non ci può più dare consigli medici e legali. Sbagliato: continua a darli, com’è facile verificare. Il punto è che le regole sono un po’ un disclaimer dove OpenAI prende le distanze da alcuni possibili usi, sempre possibili ma vietati in teoria. Al tempo stesso, è vero che stabilisce alcune tutele pratiche più forti e immediate, ma solo per gli utenti più vulnerabili.
Facciamo chiarezza.
Le nuove regole arrivano dopo mesi di confronto con governi, ricercatori e utenti e per noi europei si iscrivono, un po’ alla larga, nei dettami del regolamento AI Act.
I divieti più netti: armi, sorveglianza e manipolazione
Le nuove policy vietano in modo esplicito l’uso dei modelli per sviluppare, progettare o gestire armi. Ma anche per fare sorveglianza biometrica, riconoscimento facciale senza consenso (un po’ come fa invece l’AI di Clearview negli Usa, per le autorità di controllo dell’immigrazione).
Nello specifico: “sono vietate le banche dati di riconoscimento facciale senza il consenso dell’interessato; identificazione biometrica remota in tempo reale in spazi pubblici. Uso dell’immagine di un soggetto senza il suo consenso, compresa la sua immagine fotorealistica o la sua voce, in modo tale da creare confusione circa l’autenticità”, si legge nelle policy.




