Intelligenza artificiale, Dynamo apre il confronto con il terzo settore
La Fondazione ha rilasciato il documento che mette confini sull’uso responsabile. E si interroga sulla veridicità e le relazioni
3' di lettura
3' di lettura
La usiamo tutti, con la guida spesso affidata unicamente al buon senso. Eppure per le organizzazioni che operano nel sociale, come gli enti del terzo settore, la governance dell’intelligenza artificiale è un tema sensibile. Grandi organizzazioni internazionali, come Medici Senza Frontiere, si sono dotate di una policy per l’utilizzo con principi etici e regole ma molte altre sono ancora al lavoro. In Italia Fondazione Dynamo Camp ha appena rilasciato la sua policy rendendola pubblica sul sito di Dynamo Academy e proponendo un confronto sul tema a tutto il terzo settore.
Trasformazione digitale
«Questa policy si inserisce pienamente nel nostro percorso di trasformazione della nostra base dati e del nostro modo di lavorare attraverso vari strumenti digitale tra cui l’intelligenza artificiale» spiega Serena Porcari, ceo di Fondazione Dynamo Camp, che offre gratuitamente programmi di terapia ricreativa a minori affetti da patologie gravi o croniche.«Sperimentando abbiamo capito quali fossero i primi passi da fare, a partire dall’intellectual capital di Dynamo condiviso da tutti i gruppi di lavoro».
Con la crescita delle donazioni l’ente ha avviato una decisa trasformazione digitale investendo in modo massiccio sull’architettura digitale. Il database è stato reso responsive e segmentabile. Poi sono state formate le 70 persone di Dynamo. Gpt è stata integrata nei team di lavoro. Oltre al Gpt di Dynamo generico (con le informazioni sull’organizzazione e i suoi scopi) per ogni area di lavoro è stato creato un Gpt istruito e personalizzato in base a quello che deve restituire come output e i cui risultati vanno ad arricchire il Gpt generale di Dynamo. Sulla parte raccolta fondi il data management è integrato con l’Ai così da poter mandare a ogni donatore una comunicazione personalizzata in base al profilo e allo storico delle sue donazioni.
Quando usare l’Ai?
Nel documento «Policy per l’uso responsabile dell’intelligenza artificiale» sono elencati i principi ispiratori come centralità della persona, inclusione e accessibilità, tutela delle persone, autenticità e integrità della comunicazione, responsabilità e supervisione umana. Ma come tradurre concretamente questi principi? La domanda centrale da porsi per la fondazione non è: «possiamo usare l’Ai?» ma «ha senso usarla in questo contesto specifico?». Insomma usare l’Ai in modo critico e consapevole significa anche scegliere di non usarla, quando non è necessario.
Per valutare concretamente i bisogni, la carta invita a individuare il problema o il processo che si intende rispettivamente risolvere o migliorare, l’effettivo valore aggiunto che l’Ia può portare in termini di efficienza, precisione, accessibilità, trasparenza o risparmio di risorse, la sostenibilità dell’adozione in termini di costi, le competenze necessarie, la capacità di valutazione dei risultati, il tempo di apprendimento, aggiornamento e monitoraggio e l’esistenza di alternative non tecnologiche (o meno complesse) altrettanto o più efficaci.






