La legge di Bilancio

Fisco, l’intelligenza artificiale non entra negli accertamenti

Lotta all’evasione. Arrivano i paletti dell’agenzia delle Entrate per l’utilizzo dei sistemi di AiStop assoluto sui software liberamente disponibili e non validati. Verifica umana sempre necessaria

di Marco Mobili e Giovanni Parente

(Adobe Stock)

3' di lettura

English Version

3' di lettura

English Version

L’agenzia delle Entrate traccia il solco sull’utilizzo dell’intelligenza artificiale. E lo fa in nome di un principio guida: anche quando sarà consentito utilizzarla sarà necessario sempre una supervisione e una verifica umana dei risultati da parte di donne e uomini del Fisco. Con le linee guida sulle policy interne, volute dal direttore Vincenzo Carbone, le Entrate fissano dunque le regole per l’impiego delle nuove soluzioni a seguito della emanazione della legge italiana sull’Ai act (legge 132/2025) in vigore dallo scorso 10 ottobre, nell’ottica di gestire di pari passo la transizione tecnologica con il rispetto della privacy dei dati sensibili dei contribuenti. Lo stesso Carbone ha sempre rimarcato come l’intelligenza artificiale, se correttamente governata, possa offrire grandi opportunità in termini di ottimizzazione dei processi di pianificazione, di una efficiente allocazione delle risorse e di una automazione di azioni ripetitive e a basso valore aggiunto.

In questo senso con le nuove policy si conferma il divieto all’utilizzo di sistemi di Ai generativa in piattaforme disponibili pubblicamente, quindi non integrate nei sistemi dell’Agenzia, per produrre qualsiasi atto amministrativo, dagli accertamenti ai rimborsi.

Loading...

In sostanza come ha più volte ripetuto Carbone occorre un approccio “garantista”. «Nessun Grande fratello fiscale né un algoritmo antievasione» né tanto meno «esiste una macchina che fa pesca a strascico fra i contribuenti o sforna accertamenti a go-go».

Discorso parzialmente diverso per i sistemi già validati dall’Agenzia e che fanno parte della strumentazione aziendale, sia con funzionalità di Ai integrate negli applicativi, sia sulla base di specifici progetti di sviluppo, il cui utilizzo a regime è autorizzato una volta chiusa la necessaria attività di sperimentazione. In questo caso, l’utilizzo dell’Ai è consentito ma esclusivamente a supporto della produttività individuale e per attività non finalizzate alla produzione diretta di atti amministrativi riferibili all’attività istituzionale dell’Agenzia (si pensi a traduzioni o sintesi di documenti). Non sono comunque consentite con questo strumento elaborazioni di banche dati dell’Agenzia o porzioni di esse, e in ogni caso di dati afferenti all’Anagrafe tributaria ovvero di dati personali e informazioni riservate.

Un capitolo a parte, invece, è rappresentato dai programmi sviluppati da Sogei per l’analisi di rischio, per cui le soluzioni di intelligenza artificiale sono testate e pienamente rispondenti alle esigenze di tutela dei dati personali dei contribuenti, in linea con le previsioni comunitarie, anche attraverso i meccanismi di pseudoanonimizzazione. Ma in questo caso si tratta di applicazioni che prima di tutto sono finalizzate all’analisi di rischio utili per selezionare i contribuenti con profili di incoerenza, da sottoporre a ulteriori step di approfondimento. In ogni caso si tratta di applicazioni in uso a uno strettissimo numero di dipendenti qualificati.

Le linee guida riprendono poi una serie di indicazioni, che sono emerse anche negli ultimi giorni da diversi punti di vista (si vedano la mozione degli avvocati tributaristi di Uncat al congresso forense e quanto sottolineato dal Garante Privacy Pasquale Stanzione in audizione alla commissione di vigilanza sull’Anagrafe tributaria). Attenzione quindi perché le informazioni fornite dagli strumenti di Ai possono essere affette da errori, in quanto gli algoritmi alla base di sistemi di intelligenza artificiale sono di tipo statistico e non deterministico. Inoltre è sempre presente una probabilità che l’output fornito sia errato, non pertinente o inaccurato. Dunque i risultati prodotti non possono essere mai impiegati così come sono, ma è essenziale, da parte di ciascun operatore, una verifica umana critica dei contenuti prodotti e un riscontro puntuale delle informazioni e dei documenti eventualmente referenziati nelle risposte. Ecco perché le policy delle Entrate mettono in guardia da possibili “allucinazioni” prodotte dai contenuti generati che, ad esempio, possono riguardare citazioni di normative inesistenti indicandole in modo verosimile, conclusioni non coerenti rispetto agli input forniti dall’utente, sintesi errate di documenti su cui è stato richiesto l’esame, risposte non conferenti rispetto a quanto richiesto. Da qui un obbligo di «verifica puntuale» da parte del funzionario della correttezza dei contenuti generati da tali strumenti ai fini della definizione delle modifiche, correzioni e/o integrazioni da apportare a ciascun documento predisposto nell’ambito delle attività assegnate. Senza arrivare mai a un utilizzo «per la produzione diretta di atti amministrativi relativi all’attività istituzionale dell’Agenzia».

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti