Economia Digitale

Intelligenza artificiale, Dynamo apre il confronto con il terzo settore

La Fondazione ha rilasciato il documento che mette confini sull’uso responsabile. E si interroga sulla veridicità e le relazioni

di Alessia Maccaferri

Il camp. È situato a Limestre in provincia di Pistoia al limitare di un’oasi di oltre 900 ettari affiliata al Wwf

3' di lettura

English Version

3' di lettura

English Version

La usiamo tutti, con la guida spesso affidata unicamente al buon senso. Eppure per le organizzazioni che operano nel sociale, come gli enti del terzo settore, la governance dell’intelligenza artificiale è un tema sensibile. Grandi organizzazioni internazionali, come Medici Senza Frontiere, si sono dotate di una policy per l’utilizzo con principi etici e regole ma molte altre sono ancora al lavoro. In Italia Fondazione Dynamo Camp ha appena rilasciato la sua policy rendendola pubblica sul sito di Dynamo Academy e proponendo un confronto sul tema a tutto il terzo settore.

Trasformazione digitale

«Questa policy si inserisce pienamente nel nostro percorso di trasformazione della nostra base dati e del nostro modo di lavorare attraverso vari strumenti digitale tra cui l’intelligenza artificiale» spiega Serena Porcari, ceo di Fondazione Dynamo Camp, che offre gratuitamente programmi di terapia ricreativa a minori affetti da patologie gravi o croniche.«Sperimentando abbiamo capito quali fossero i primi passi da fare, a partire dall’intellectual capital di Dynamo condiviso da tutti i gruppi di lavoro».

Loading...

Con la crescita delle donazioni l’ente ha avviato una decisa trasformazione digitale investendo in modo massiccio sull’architettura digitale. Il database è stato reso responsive e segmentabile. Poi sono state formate le 70 persone di Dynamo. Gpt è stata integrata nei team di lavoro. Oltre al Gpt di Dynamo generico (con le informazioni sull’organizzazione e i suoi scopi) per ogni area di lavoro è stato creato un Gpt istruito e personalizzato in base a quello che deve restituire come output e i cui risultati vanno ad arricchire il Gpt generale di Dynamo. Sulla parte raccolta fondi il data management è integrato con l’Ai così da poter mandare a ogni donatore una comunicazione personalizzata in base al profilo e allo storico delle sue donazioni.

Quando usare l’Ai?

Nel documento «Policy per l’uso responsabile dell’intelligenza artificiale» sono elencati i principi ispiratori come centralità della persona, inclusione e accessibilità, tutela delle persone, autenticità e integrità della comunicazione, responsabilità e supervisione umana. Ma come tradurre concretamente questi principi? La domanda centrale da porsi per la fondazione non è: «possiamo usare l’Ai?» ma «ha senso usarla in questo contesto specifico?». Insomma usare l’Ai in modo critico e consapevole significa anche scegliere di non usarla, quando non è necessario.

Per valutare concretamente i bisogni, la carta invita a individuare il problema o il processo che si intende rispettivamente risolvere o migliorare, l’effettivo valore aggiunto che l’Ia può portare in termini di efficienza, precisione, accessibilità, trasparenza o risparmio di risorse, la sostenibilità dell’adozione in termini di costi, le competenze necessarie, la capacità di valutazione dei risultati, il tempo di apprendimento, aggiornamento e monitoraggio e l’esistenza di alternative non tecnologiche (o meno complesse) altrettanto o più efficaci.

«L’innovazione che ci interessa non è la tecnologia di per sè ma è la governance di questi strumenti, ovvero come guidiamo l’Ai - puntualizza Mattia Dell’Era, chief digital officer di Dynamo - Non sono ammessi le diagnosi, le valutazioni cliniche e non ci devono essere decisioni automatizzate sulle persone. Deve essere chiaro per esempio che non è consentito pubblicare contenuti interamente generati da Ai senza riformulazione e adattamento, non creeremo mai contenuti testo e video con beneficiari virtuali o storie inventate».

I rischi per le relazioni

Fondazione Dynamo affronta un aspetto significativo per buona parte del terzo settore quando afferma che l’Ai solleva questioni critiche come «veridicità e autenticità del contenuto generato (in contrasto con la dimensione esperienziale su cui si fonda la Terapia Ricreativa) e il potenziale rischio di sostituzione del contenuto umano-relazionale». Insomma il rischio è che l’Ai intervenga - snaturandolo - sul valore maggiore di chi opera nell’economia sociale, ovvero la relazione, capitale di fiducia imprescindibile.

La policy non coinvolge solo dipendenti e collaboratori ma anche partner tecnologici e fornitori di soluzioni basate su Ai e soggetti terzi. «Probabilmente inseriremo questa policy anche nei contratti di acquisto» aggiunge Porcari. Inoltre la fondazione ha previsto strumenti di valutazione dell’impatto. «Vorremo trovare dei Kpi, magari con l’aiuto di partner esterni».

Riproduzione riservata ©
  • Alessia Maccaferri

    Alessia MaccaferriCaposervizio Nòva 24 - Il Sole 24 Ore

    Luogo: Milano

    Lingue parlate: italiano, inglese

    Argomenti: innovazione sociale, impact investing, filantropia, fundraising, smart cities, turismo digitale, musei digitali, tracciabilità 4.0, smart port

    Premi: Premio Sodalitas (2008), premio Natale Ucsi (2006), European Science Writer Award (2010)

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti