Guide

Autoregolamentazione, trasparenza e sorveglianza: i nodi da sciogliere dell’Ai Act

di L.Tre.

4' di lettura

4' di lettura

Trentaquattro associazioni di imprese, autori e artisti dell’intero mondo culturale chiedono al Governo a una voce sola che l’Italia cambi posizione sul regolamento sull’Intelligenza artificiale europeo. L’appello arriva in vista del Trilogo del 6 dicembre che avrà all’ordine del giorno il delicato negoziato per approvare l’Artificial Intelligence (AI) Act, il regolamento europeo che intende stabilire un quadro giuridico per lo sviluppo dell’intelligenza artificiale, compresa quella generativa. «Chiediamo con forza al Governo italiano di sostenere una regolamentazione equilibrata che, garantendo la trasparenza delle fonti, favorisca lo sviluppo delle tecnologie di intelligenza artificiale, tutelando e promuovendo al contempo la creatività umana originale e tutti i contenuti culturali del nostro Paese». Analoghi appelli sono stati firmati da associazioni francesi e tedesche. L’obiettivo: che i tre paesi europei che si sono opposti finora a una legislazione più stringente cambino la loro posizione sul regolamento europeo.

Quali soni i nodi nella riunione del 6 dicembre?

In discussione mercoledì ci saranno quindi le regole da applicare ai foundational models che sono tutti quei sistemi di Ai in grado di svolgere compiti diversi grazie all’uso di dati non strutturati. E quindi rientrano nella categoria le applicazioni di intelligenza artificiale generativa come ChatGpt o Midjourney. Settimana scorsa Italia, Francia e Germania in un documento hanno espresso la propria contrarietà a introdurre nel provvedimento delle “norme non testate” sui modelli più performanti dell’IA come GPT-4, alla base del chatbot ChatGPT. Sul punto, uno dei più spinosi delle trattative che vedono coinvolte le istituzioni europee, i tre big dell’Ue suggeriscono di scegliere la via dell’autoregolamentazione attraverso codici di condotta per gli sviluppatori di IA. E questo per non gravare le imprese di eccessivi oneri amministrativi che soffocherebbero l’innovazione in un settore cruciale per il futuro. È questo il nodo su cui esiste una diversità di vedute. In prima linea la Francia con Emmanuel Macron, che nei giorni scorsi aveva esortato a elaborare una “regolamentazione non punitiva per preservare l’innovazione”.

Loading...
Chi salverà la creatività (e i creativi) dai Big dell'intelligenza artificiale?

Le ragioni dell’appello

Sappiamo che le opere protette, le voci e le immagini vengono utilizzate senza il consenso dei titolari dei diritti per generare nuovi contenuti. Alcuni di questi utilizzi possono ledere non solo i diritti d’autore ma anche i diritti morali e della personalità degli autori e pregiudicare la loro reputazione personale e professionale. Inoltre, c’è il rischio che il loro lavoro originale degli autori, artisti e delle imprese culturali e creative venga sostituito, costringendoli a competere con le loro repliche digitali che ne ricaverebbero ovvi vantaggi sotto diversi profili con gravi conseguenze anche economiche. Ciòdetto chi ha firmato l’appello chide che l’Ai Act debba garantire che sia data assoluta priorità alla massima trasparenza delle fonti utilizzate per addestrarne gli algoritmi, a favore dei creativi e delle industrie che rappresentiamo e più in generale della società europea. «Gli obblighi previsti si legge - dovrebbero essere applicati agli sviluppatori e agli operatori di sistemi e modelli di IA generativa a monte e a valle con particolare riferimento all’obbligo di conservare e rendere pubblicamente disponibili informazioni sufficientemente dettagliate sulle fonti, i contenuti e le opere utilizzati per l’addestramento, al fine di consentire alle parti con un interesse legittimo di determinare se e come i loro diritti siano stati lesi e di intervenire.Questi obblighi devono essere quantomeno estesi a tutti i sistemi resi disponibili nell’UE o che generano output utilizzati nell’UE, commerciali o non commerciali e portare alla presunzione di utilizzo in caso di mancata osservanza consentendo agli aventi diritto di esercitare le proprie prerogative anche per la concessione di licenze.È cruciale riconoscere che nessuna delle protezioni basate sugli strumenti legali già esistenti nella normativa europea ha la minima possibilità di funzionare se non vengono poste rigorose e specifiche regole di trasparenza a carico degli sviluppatori di IA generativa».

La posizione del Parlamento europeo

Nella ricerca di un delicato equilibrio tra progresso e tutela dei diritti umani, spetta al Parlamento europeo puntare i piedi.“Non siamo disposti ad accettare autoregolamentazioni light per i modelli più potenti” ha detto all’Ansa Brando Benifei, capodelegazione degli eurodeputati Pd al Parlamento Europeo e relatore dell’AI Act, aprendo, tuttavia, alla possibilità di limitare il campo di applicazione di questa specifica regolamentazione a modelli a uso generale.I codici di condotta non sono sufficienti, basti pensare, spiega Benifei, alla vicenda di OpenAI che “ha mostrato tutta l’instabilità anche della governance delle imprese sviluppatrici di modelli potenti, che comportano cioè un rischio sistemico”. Imperativo quindi introdurre “obblighi chiari” e “sanzionabili”, dice ancora l’eurodeputato dem ricordando che nella proposta di Roma, Parigi e Berlino “non c’è nessun incentivo a rispettare le regole auto-attribuite”.

La questione della sorveglianza e del riconoscimento biometrico.

Altro punto di discussione è la questione sorveglianza. Il Parlamento europeo ha chiesto di vietare l’uso dell’Ai per analizzare identificare le persone e per fare riconoscimento biometrico in tempo reale. Alcuni Stati hanno chiesto eccezioni e la posizione del Consiglio sembra essere più inclina ad autorizzare forme di sorveglianza in determinanti frangenti. La possibilità però di un compromesso sembra concreta.

L’indagine del Garante della privacy

Nel frattempo il Garante per la protezione dei dati personali che ha avviato un’indagine conoscitiva su siti internet pubblici e privati per verificare l’adozione di misure di sicurezza adeguate a impedire la raccolta massiva di dati personali, nota come webscraping, per l’addestramento degli algoritmi di IA da parte di soggetti terzi. A seguito dell’indagine conoscitiva, l’Autorità potrà adottare i necessari provvedimenti, anche in via d’urgenza.

Riproduzione riservata ©
  • Luca Tremolada

    Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti