Intervento

AI ed etica, come alimentare l’innovazione proteggendo le persone

L’adozione dell’AI cresce rapidamente, ma senza supervisione e principi etici rischia di alimentare discriminazioni e sfiducia tra gli utenti

di Yari Franzini*

4' di lettura

English Version

4' di lettura

English Version

Secondo IDC, la spesa europea per l’intelligenza artificiale raggiungerà i 144,6 miliardi di dollari entro il 2028, con un tasso di crescita annuale composto del 30,3%. Tuttavia, nonostante il 66% delle persone in tutto il mondo usi regolarmente sistemi di AI, solo il 46% se ne fida pienamente. Infatti, senza una stretta supervisione, gli stessi strumenti destinati a promuovere il progresso possono distorcere i risultati e aggravare la presenza di informazioni pregiudizievoli, allontanandosi così dai principi che ne sono idealmente alla base: equità, trasparenza e responsabilità.

La responsabilità come punto di partenza

La responsabilità costituisce il pilastro fondamentale di un’implementazione etica dell’intelligenza artificiale. Ad esempio, una banca potrebbe utilizzare l’AI per determinare se approvare o negare una richiesta di prestito. Se il richiedente riceve una notifica di “storico creditizio insufficiente” e la banca nega il prestito, l’istituzione bancaria si assume la responsabilità della decisione dell’AI di giungere a questa conclusione.

Loading...

Quando le azioni o le decisioni prese dall’AI non vengono comunicate apertamente, come nel caso della notifica della banca, ecco che la fiducia e la trasparenza tra le parti coinvolte è compromessa. Per questo motivo è vitale assicurare che gli agenti umani che creano il ciclo di vita dell’AI - progettisti, sviluppatori e attuatori del sistema - siano ritenuti responsabili della sua corretta implementazione, definendo chiaramente compiti e ruoli e fornendo a ciascuna figura coinvolta gli strumenti per giustificare le decisioni supportate dagli algoritmi.

Le organizzazioni sono quindi chiamate a sviluppare un approccio di “Responsabilità-by-Design” dell’AI, volto a realizzare sistemi basati su principi di progettazione etica fin dall’inizio. Non solo, al fine di essere conformi all’evoluzione degli standard sono necessarie frequenti valutazioni degli output dell’AI, in uno sforzo continuo per evitare pregiudizi, abusi e problematiche non previste in fase di progettazione.

Affrontare i pregiudizi e promuovere l’equità

Dal software di riconoscimento facciale che identifica erroneamente particolari demografie, agli strumenti di reclutamento che discriminano in base al genere o all’etnia, i sistemi di AI hanno ripetutamente dimostrato l’urgente necessità di tecnologie più eque e trasparenti.

Sono molte le organizzazioni che già si avvalgono di algoritmi per fornire un triage iniziale, per esempio per lo screening dei candidati nei processi di assunzione. In questo caso diventa essenziale monitorarli e rivederli regolarmente per identificare e rimuovere eventuali tendenze discriminatorie nella valutazione dei curriculum. Per assicurarsi infatti che le decisioni automatizzate siano informate dalla logica, dall’etica e dall’empatia, è imperativo mantenere un approccio “human in the loop”, nel quale c’è sempre una persona che supervisiona e può intervenire nelle operazioni dell’AI per garantire che i risultati siano imparziali.

La fiducia cresce quando la trasparenza è evidente

Continuando sull’esempio delle assunzioni, immaginate di candidarvi per un lavoro e scoprire che la vostra domanda sia stata valutata e rifiutata da un sistema di AI, senza nemmeno raggiungere un selezionatore umano. Questa mancanza di trasparenza può portare i candidati a perdere fiducia e a credere di non aver avuto una giusta possibilità nel processo di reclutamento.

Le organizzazioni devono essere in grado di mostrare chiaramente in che modo i sistemi di AI valutano le candidature e prendono decisioni, fornendo spiegazioni complete degli standard e delle procedure implementate. È quindi necessario disporre di canali facilmente accessibili per commenti o ricorsi degli utenti e garantire che essi sappiano se le conclusioni dell’AI sono definitive o soggette a revisione umana.

L’equità e la responsabilità nell’implementazione dell’AI sono ulteriormente rafforzate da quadri di governance interna aperti, come quelli che delineano esplicitamente la giurisdizione dei comitati etici dell’AI.

Innalzare privacy e sicurezza

L’AI può raccogliere e analizzare enormi volumi di dati a velocità prima inimmaginabili. Questo potere, tuttavia, comporta un elevato rischio di violazioni della privacy, come dimostrato da McKinsey, che ha rilevato che 8 cittadini europei su 10 esprimono preoccupazione su chi può accedere ai loro dati personali.

Il rispetto dei diritti individuali va oltre la conformità legale e, nello sviluppo dell’AI, la protezione dei dati sensibili e personali identificabili dovrebbe essere una priorità assoluta.

Questo si può ottenere attraverso percorsi di alfabetizzazione sull’AI e con il continuo aggiornamento delle competenze sia delle singole persone che a livello di intera organizzazione.

L’adozione di standard etici nell’AI non è più differibile

L’avanzamento della tecnologia AI spesso supera la capacità delle normative e degli standard etici esistenti. Ritardare l’azione espone al rischio di un suo uso dannoso o imprevedibile da parte delle aziende, dato che l’AI influisce ormai concretamente su molte aree della vita quotidiana, come la sanità, il lavoro, la privacy e la sicurezza.

Etica e sicurezza sono diventate priorità strategiche per l’UE, che mira a compiere progressi significativi verso lo sviluppo responsabile dei modelli di AI e a fornire ai cittadini i necessari meccanismi di protezione. Ne è prova il Codice di Condotta per l’AI di Scopo Generale (GPAI) recentemente lanciato dalla Commissione Europea.

Lo sviluppo dell’AI è per sua natura distribuito, e vede coinvolta una varietà di istituzioni e paesi. Stabilendo principi morali comuni, possiamo tutti assumerci la responsabilità di prevenire gli abusi e promuovere applicazioni utili che costruiscano la fiducia globale.

*Group Vice President Southern Europe di Cloudera

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti