I settori più competitivi

Dati e privacy: la frontiera tech attrae le nuove generazioni

Non solo diritto, in materia di informazioni personali e cybersicurezza servono competenze tecniche trasversali. L’intelligenza artificiale apre molti fronti di rischio ma offre anche diverse opportunità

di Dario Aquaro

4' di lettura

4' di lettura

Dai codici del diritto ai codici informatici, scherza qualcuno. La verità non è tanto lontana: per lavorare negli studi legali, in ambito di privacy e cybersicurezza, bisogna essere avvocati ma anche un po’ “ingegneri”. Ed è quest’aspetto di frontiera, il confine con il tech, ad attrarre (sempre più) i giovani professionisti.

«Non è necessario saper programmare, ma di certo padroneggiare i concetti della tecnologia, conoscere il funzionamento delle reti, saper relazionarsi con le società di digital forensic. Insomma: avere una formazione tecnica», riassume Francesca Gaudino, partner dello studio Baker McKenzie. Che rivela: «Rispetto all’epoca pre Gdpr i curricula che affluiscono si sono moltiplicati. Il settore è molto più attrattivo che in passato e soprattutto è “gender neutral”: come testimoniano le tante cyber ladies».

Loading...

L’accelerazione impressa dall’intelligenza artificiale al connubio tra tecnologia e dati è sotto gli occhi di tutti. Dagli algoritmi ai sistemi Crm delle imprese, dalle piattaforme di e-commerce fino ai sistemi generativi più sofisticati, il punto è uno: la Ia si nutre di dati e con i dati deve essere allenata. Ecco perché si aprono nuovi fronti di rischio, che la normativa cerca di arginare.

«Stiamo ora aiutando i clienti – prosegue Gaudino – a mappare gli obblighi previsti dal regolamento Ai Act per il mercato B2c. Si dice: restano ferme le norme del Gdpr. Ma ci sono alcuni cortocircuiti. Basti pensare che uno dei principi fondamentali del regolamento privacy è quello di minimizzazione (i titolari dei dati personali devono raccogliere solo le informazioni necessarie al raggiungimento delle finalità del trattamento stesso, Nda). Mentre l’Ai Act richiede di sviluppare sistemi accurati e precisi, che proprio per questo hanno bisogno di dati meno “minimi”».

Il confronto tra il Garante italiano e OpenAi ha fatto emergere pubblicamente il tema di come vengono utilizzati i dati, allenati i sistemi e definiti i modelli di fondazione, cruciali per lo sviluppo della Ia generativa. Cioè i modelli che altri sviluppatori possono usare come “software di base” per i propri sistemi di intelligenza artificiale. «Ma nell’Ai Act – osserva Massimiliano Masnada, partner dello studio Hogan Lovells – non viene affrontata direttamente la questione della base giuridica dell’uso dei dati personali nell’attività di training degli algoritmi di Ia: ad esempio, a quali condizioni è consentito il web scraping, la raccolta massiva di dati sulla rete? Né viene affrontato il tema delle garanzie poste a tutela del diritto di opposizione al trattamento. Giusto dare prevalenza all’interesse legittimo, purché i soggetti coinvolti abbiano però il diritto di opt out?».

Masnada spiega che «negli ultimi mesi lo studio ha assistito i clienti anche nell’ambito della ricerca scientifica, in merito all’interpretazione degli articoli 110 e 110-bis del Codice della privacy. Il nuovo Ddl sull’intelligenza artificiale approvato il 23 aprile dal Governo interviene anche su quelle norme che disciplinano l’uso secondario di dati sanitari (in forma pseudonimizzata o anonima). L’Ai Act menziona l’uso dei dati particolari per la correzione delle distorsioni nei sistemi di Ia ad alto rischio. Ma nel campo della ricerca medica e scientifica non si può prescindere dall’uso dei dati dei pazienti per l’allenamento degli algoritmi, pur con tutte le garanzie per la privacy degli interessati e previo svolgimento di un risk assessment secondo i principi dell’Ai Act e le certificazioni che ne seguiranno».

Le porte del «digitale»

Il nuovo regolamento Ue non è particolarmente prescrittivo, ed è giusto così «perché il mondo digitale corre così veloce che una norma più stringente potrebbe presto diventare obsoleta», afferma Alessandro Vercellotti, fondatore dello studio Legal For Digital. «L’intelligenza artificiale è entrata a gamba tesa e tra le aziende è sorta l’esigenza non solo di essere compliant, ma anche di lavorare con il marketing per sfruttare i nuovi sistemi e migliorare le performance: dalla gestione dei cookie all’allargamento della platea raggiunta dalle newsletter, fino al check out dell’acquisto e-commerce che consente di raccogliere più informazioni sui clienti».

Dal punto di vista professionale, sono richieste competenze trasversali e un continuo aggiornamento tecnico. «Ogni volta che devo inserire una nuova risorsa – racconta Vercellotti – arrivano fiumi di candidature. In un mercato legale che, tranne i grandi studi, fatica a crescere, il digitale offre più spazi potenziali. Ma non basta conoscere il diritto ed essere appassionati di tecnologia; c’è una parte di know how “straordinario” che include le varie regole specifiche: i termini e le condizioni di Instagram, per esempio, richiedono un tempo di lettura di circa cinque ore. Sono cose da sapere, nel caso un cliente abbia problemi con Meta».

Saper relazionarsi con gli informatici, ma anche con il reparto marketing delle aziende: è un punto che sottolinea anche l’avvocato Angela Lo Giudice, partner dello studio legale Polimeni & Cotroneo. «È importante far capire alle aziende che l’adeguamento alle normative va declinato in ottica di Roi, di ritorno sull’investimento. Senza entrare nell’ambito dell’intelligenza artificiale, pensiamo ad esempio al tema dell’accessibilità che per l’e-commerce diventerà ancor più fondamentale nel 2025 con l’applicazione dell’European accessibility Act. Chi si occupa di piattaforma di acquisto non può restare indifferente».

C’è ancora un po’ di resistenza di alcune società, «che vedono la compliance, l’adeguamento alle normativa sulla privacy, solo come adempimento documentale: da fare, ma poco utile. Il nostro compito di avvocati – dice Lo Giudice – è andare oltre l’aspetto sanzionatorio e spiegare le opportunità di business che si aprono. Quanto alle opportunità “interne” alla professione, basta un numero per dare l’idea: il 90% di coloro che si propongono in studio come collaboratori o praticanti lo fa puntando al settore privacy e cybersecurity».

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti