Dati e privacy: la frontiera tech attrae le nuove generazioni
Non solo diritto, in materia di informazioni personali e cybersicurezza servono competenze tecniche trasversali. L’intelligenza artificiale apre molti fronti di rischio ma offre anche diverse opportunità
di Dario Aquaro
4' di lettura
I punti chiave
4' di lettura
Dai codici del diritto ai codici informatici, scherza qualcuno. La verità non è tanto lontana: per lavorare negli studi legali, in ambito di privacy e cybersicurezza, bisogna essere avvocati ma anche un po’ “ingegneri”. Ed è quest’aspetto di frontiera, il confine con il tech, ad attrarre (sempre più) i giovani professionisti.
«Non è necessario saper programmare, ma di certo padroneggiare i concetti della tecnologia, conoscere il funzionamento delle reti, saper relazionarsi con le società di digital forensic. Insomma: avere una formazione tecnica», riassume Francesca Gaudino, partner dello studio Baker McKenzie. Che rivela: «Rispetto all’epoca pre Gdpr i curricula che affluiscono si sono moltiplicati. Il settore è molto più attrattivo che in passato e soprattutto è “gender neutral”: come testimoniano le tante cyber ladies».
L’accelerazione impressa dall’intelligenza artificiale al connubio tra tecnologia e dati è sotto gli occhi di tutti. Dagli algoritmi ai sistemi Crm delle imprese, dalle piattaforme di e-commerce fino ai sistemi generativi più sofisticati, il punto è uno: la Ia si nutre di dati e con i dati deve essere allenata. Ecco perché si aprono nuovi fronti di rischio, che la normativa cerca di arginare.
«Stiamo ora aiutando i clienti – prosegue Gaudino – a mappare gli obblighi previsti dal regolamento Ai Act per il mercato B2c. Si dice: restano ferme le norme del Gdpr. Ma ci sono alcuni cortocircuiti. Basti pensare che uno dei principi fondamentali del regolamento privacy è quello di minimizzazione (i titolari dei dati personali devono raccogliere solo le informazioni necessarie al raggiungimento delle finalità del trattamento stesso, Nda). Mentre l’Ai Act richiede di sviluppare sistemi accurati e precisi, che proprio per questo hanno bisogno di dati meno “minimi”».
Il confronto tra il Garante italiano e OpenAi ha fatto emergere pubblicamente il tema di come vengono utilizzati i dati, allenati i sistemi e definiti i modelli di fondazione, cruciali per lo sviluppo della Ia generativa. Cioè i modelli che altri sviluppatori possono usare come “software di base” per i propri sistemi di intelligenza artificiale. «Ma nell’Ai Act – osserva Massimiliano Masnada, partner dello studio Hogan Lovells – non viene affrontata direttamente la questione della base giuridica dell’uso dei dati personali nell’attività di training degli algoritmi di Ia: ad esempio, a quali condizioni è consentito il web scraping, la raccolta massiva di dati sulla rete? Né viene affrontato il tema delle garanzie poste a tutela del diritto di opposizione al trattamento. Giusto dare prevalenza all’interesse legittimo, purché i soggetti coinvolti abbiano però il diritto di opt out?».



