SOMMARIO: 1. Procedimento tributario, advanced analytics e nuove esigenze di tutela – 2. Cenni sugli algoritmi che governano le tecniche di analisi avanzata dei dati – 2.1 Dalla programmazione dettagliata alle macchine che apprendono – 2.2 L’apprendimento supervisionato e l’inconveniente della “black box” – 2.3 L’apprendimento non supervisionato – 2.4 Accuratezza delle previsioni vs interpretabilità del modello: una scelta difficile – 3. Il nuovo assetto dell’istruttoria tributaria con l’introduzione di Ve.R.A., il software di analisi del rischio fiscale in base ai dati dell’Archivio dei rapporti finanziari – 3.1 Gli indici sintetici di affidabilità fiscale – 3.2 La liquidazione informatizzata delle dichiarazioni - 3.3 L’analisi del rischio fiscale in base all’incrocio dei dati dell’Archivio dei rapporti finanziari e di altre banche dati – 3.3.1 La controversa natura della “lettera di compliance” recante l’esito dell’analisi algoritmica e l’invito alla regolarizzazione – 3.3.2 La limitata tutela dei dati personali nei procedimenti automatizzati tributari – 4. Dalla profilazione alla decisione: quale tutela per il contribuente nel passaggio dalla fase di selezione a quella accertativa? – 5. Notazioni conclusive
1. Procedimento tributario, advanced analytics e nuove esigenze di tutela - L’amministrazione dei tributi esige da sempre un costante afflusso agli enti impositori di dati personali ed economici, dichiarati dai contribuenti e da soggetti terzi o raccolti nel corso di attività istruttorie. La digitalizzazione, tuttavia, ha accresciuto la disponibilità di dati e ne ha modificato radicalmente le modalità di acquisizione, analisi e conservazione. All’accumulo di questa miriade di dati hanno contribuito anche innovazioni prettamente tributarie, quali lo scambio di informazioni (soprattutto automatico) fra amministrazioni di diversi Stati o la trasmissione elettronica (periodica o in tempo reale) di informazioni sui corrispettivi.
Per valorizzare il loro vasto patrimonio informativo, le amministrazioni tributarie di diversi ordinamenti stanno adottando strumenti di analisi avanzata dei dati, ossia metodi statistici o di c.d. machine learning per fare previsioni, orientare le proprie decisioni e stabilire una migliore allocazione interna delle risorse[1].
L’impiego di procedure automatizzate per la corretta determinazione dei tributi, lungi dall’essere un’invenzione recente, interessa da tempo gli operatori fiscali pubblici e privati. In particolare, la tendenza ad una tecnica legislativa casistica, l’apparente automatismo applicativo di molte disposizioni tributarie, la quantità e l’instabilità della normativa (e degli orientamenti giurisprudenziali[2]) farebbero del diritto tributario – secondo alcuni[3] – un “laboratorio” ideale per la sperimentazione di sistemi in grado di elaborare automaticamente soluzioni sulla base di grandi quantità di dati.
L’Italia, che da tempo sperimenta metodologie istruttorie fondate su predeterminazioni normative e complesse elaborazioni statistiche, si è recentemente dotata di un nuovo strumento per l’analisi del rischio fiscale, che sfrutta algoritmi di intelligenza artificiale.
Con la Legge di Bilancio 2020 (Legge 27 dicembre 2019, n. 160), infatti, è stato introdotto un sistema algoritmico di verifica dei rapporti finanziari (Ve.R.A.), che, «con riferimento all’utilizzo dei dati contenuti nell’archivio dei rapporti finanziari […], anche previa pseudonimizzazione dei dati personali, si avvale delle tecnologie, delle elaborazioni e delle interconnessioni con le altre banche dati di cui dispone, allo scopo di individuare criteri di rischio utili per far emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo».
Fra le diverse tipologie di algoritmo impiegate da Ve.R.A. (che saranno di seguito descritte) vi sono anche applicazioni di machine learning. In via di prima approssimazione, le elaborazioni più complesse prevedono che la macchina ricavi degli indicatori di rischio da un database di accertamenti passati, per segnalarne poi l’eventuale presenza nei dati dei contribuenti non ancora controllati.
Tale iniziativa risulta del tutto coerente con il PNRR, ove, per la riduzione del “tax gap”, spicca lo «sfruttamento delle nuove tecnologie e strumenti di data analysis sempre più avanzati […] come intelligenza artificiale, machine learning, text mining, analisi delle relazioni»[4]. Il MEF ha anche auspicato l’introduzione di disposizioni che consentano attività di profilazione basate sul “data scraping”, ossia sulla raccolta sistematica ed automatizzata di dati disseminati sul web riconducibili alle attività economiche, con l’obbiettivo di ricostruire il giro d’affari dei sospetti “evasori totali”[5].
L’adozione da parte delle pubbliche amministrazioni di innovativi strumenti algoritmici si abbina a una “corsa al dato” per alimentare tali nuovi sistemi[6].
In particolare, il D.L. 8 ottobre 2021 n. 139[7] ha novellato il D. Lgs. n. 196/2003 con alcune disposizioni di semplificazione in materia di trattamento di dati personali da parte di pubbliche amministrazioni[8]. La “semplificazione” consiste essenzialmente nell’agevolare: (i) il trattamento di dati personali effettuato dalla singola PA nel pubblico interesse[9]; (ii) la condivisione degli stessi con altra PA che agisca nel pubblico interesse; (iii) la loro comunicazione a soggetti che intendano trattarli per “finalità diverse”[10] o, ancora, (iv) la loro diffusione. Queste disposizioni contribuiscono ad attuare l’obiettivo di “interoperabilità” delle banche dati della PA[11].
Nell’interoperabilità delle banche dati e nell’integrazione di intelligenza artificiale nei procedimenti, si intravedono opportunità di maggior efficienza amministrativa, poiché, ad esempio, l’automatizzazione solleva i funzionari da mansioni meramente ripetitive e consente l’incrocio di una mole di dati altrimenti ingestibile.
Tali innovazioni rispondono alla crescente esigenza di certezza del diritto, che sarebbe favorita dalla calcolabilità dello stesso e dalla prevedibilità delle decisioni[12]. Anche nell’applicazione del diritto, quindi, può riscontrarsi la tendenza dell’essere umano – rilevata già in svariati campi – a fare affidamento sui risultati dell’analisi algoritmica[13]. Nelle applicazioni algoritmiche più avanzate, tuttavia, non è semplice ricostruire il percorso che ha determinato il risultato e, se anche ciò fosse possibile, richiederebbe comunque competenze informatiche o statistiche non comuni. L’eccessiva fiducia nei procedimenti automatizzati può quindi condurre a decisioni che non soddisfano adeguatamente l’obbligo di motivazione.
Le innovazioni di cui si discute devono essere attuate in armonia con i principi costituzionali ed europei che governano i procedimenti amministrativi e, nella specie, quello tributario. Tralasciando per un momento le peculiarità del procedimento tributario, sono dunque rilevanti sia il canone di buon andamento (art. 97 Cost.), che impone di valutare l’adozione di ogni nuovo strumento che possa aumentare le performance dell’amministrazione, che l’obbligo di motivare i provvedimenti, come presupposto essenziale per un effettivo esercizio del diritto di difesa (art. 24 Cost.)[14].
Sotto quest’ultimo profilo, non può prescindersi dalla disciplina europea della protezione dei dati personali, che, con il diritto a conoscere l’esistenza e la logica di un processo decisionale automatizzato e il diritto all’intervento umano, delinea uno scenario nel quale i sistemi di intelligenza artificiale dovrebbero limitarsi a supportare le decisioni umane senza prendere il sopravvento.
Anche le pubbliche amministrazioni, infatti, devono sottostare al Regolamento generale europeo sulla protezione dei dati personali n. 679/2016 (GDPR), alle disposizioni che lo integrano contenute nel D. Lgs. n. 196/2003 e alla Convenzione n. 108/1981 modernizzata del Consiglio d’Europa. I dati personali sono oggetto di una tutela “multilivello”[15] che promana dalla CEDU (art. 8) e dalla Carta di Nizza (artt. 7-8). Questo sistema multilivello – è noto – non tutela un diritto alla riservatezza assoluta, bensì il diritto di ciascun individuo a controllare l’uso e la circolazione dei propri dati personali[16].
Esistono però ampie possibilità di deroga al cospetto di «importanti obiettivi di interesse pubblico generale […] di uno Stato membro, […] anche in materia […] tributaria» (art. 23, comma 1, lett. e, GDPR).
La portata applicativa della disciplina dei dati personali è vastissima, poiché viene in rilievo ogni qual volta muti la metodologia o la finalità del trattamento delle informazioni su una persona fisica detenute da una PA. Si comprende, dunque, come la progressiva digitalizzazione delle amministrazioni, con l’adozione di nuovi strumenti di trattamento e l’analisi di quantità di dati sempre maggiori, ponga nuove esigenze di bilanciamento tra l’interesse pubblico e i diritti individuali.
La materia tributaria non è estranea a questa esigenza, come testimonia la travagliata attuazione del nuovo strumento di analisi del rischio, dovuta alle ripetute censure del Garante della privacy[17].
Con il provvedimento del 22 dicembre 2021[18] e la valutazione d’impatto del 30 luglio 2022[19], il Garante ha finalmente autorizzato il trattamento dei dati personali con il nuovo strumento algoritmico di analisi del rischio fiscale, seppur fra varie riserve e raccomandazioni.
Ciononostante, permangono incertezze in ordine alla natura dello strumento, al concreto utilizzo che ne farà l’Amministrazione finanziaria (A.F.) e alle possibilità di difesa del contribuente.
Non è chiaro, ad esempio, se e in quale forma i dati incrociati dall’algoritmo transiteranno dalla fase di selezione a quella di accertamento.
È già stato evidenziato il rischio – dato come altamente probabile – che, in assenza di un obbligo di contraddittorio[20], «il risultato della elaborazione algoritmica dei dati provenienti dall’Archivio possa venire utilizzato senza ulteriori riscontri nell’accertamento»[21].
Del resto, Ve.R.A. ha una portata molto più ampia di altri strumenti di analisi del rischio, quali gli indici sintetici di affidabilità, poiché può innescare il controllo pressoché di ogni contribuente, con qualsiasi metodo di accertamento: infatti, in assenza di una disciplina sull’esercizio dei poteri istruttori nel contesto digitale, le risultanze dell’analisi algoritmica potrebbero essere poste a base di un avviso di accertamento senza particolari limitazioni. Secondo l’art. 37 del D.P.R. n. 600/1973, gli uffici impositori, nel controllo sostanziale delle dichiarazioni e dei soggetti che ne hanno omesso la presentazione, possono avvalersi di informazioni ulteriori rispetto a quelle raccolte coi poteri istruttori espressamente disciplinati: oltre ai dati contenuti nell’Anagrafe tributaria, possono, infatti, impiegare «informazioni di cui siano comunque in possesso»[22].
Il nuovo sistema algoritmico entrerà in funzione in una fase di crisi dell’attività accertativa, attestata di recente anche dalla Corte dei conti, la quale ha segnalato un calo vertiginoso degli atti impositivi emessi nell’ultimo anno[23]. È dunque ragionevole attendersi un notevole sviluppo di tale sistema, con l’obiettivo di colmare le inefficienze degli strumenti tradizionali.
In questa sede, anche attraverso la lente offerta dalla disciplina sui dati personali, si intende porre l’attenzione su alcune garanzie minime che lo strumento dovrà rispettare.
2. Cenni sugli algoritmi che governano le tecniche di analisi avanzata dei dati - Per introdurre il funzionamento di Ve.R.A. e provare a comprenderne potenzialità e rischi, appare utile soffermarsi brevemente sulle caratteristiche degli algoritmi che si stanno diffondendo nella PA.
Si suole definire “algoritmo” una serie di istruzioni che permette di risolvere una tipologia di problemi utilizzando dati noti. In questo senso, molti problemi possono essere risolti attraverso algoritmi, anche senza ausili informatici (tant’è che l’esempio più elementare di algoritmo, spesso richiamato, è la comune ricetta di cucina)[24]. Affinché i passaggi prescritti dall’algoritmo possano essere eseguiti in maniera automatizzata, attraverso una macchina, esso deve consistere in «un insieme finito di regole che fornisce la sequenza di operazioni per risolvere uno specifico tipo di problema»[25]. Ed è proprio lo sviluppo di conoscenze informatiche e di sistemi computazionali sempre più potenti che, col progredire delle scienze cognitive, ha permesso la sperimentazione di applicazioni algoritmiche così varie e accurate da essere definite – nell’accostamento con quella “umana” – “intelligenza artificiale”[26].
A ben vedere, la nozione di algoritmo richiamata copre una serie di operazioni comunemente svolte con ausili informatici dall’Amministrazione finanziaria o dai contribuenti. Si pensi, fra i più elementari, agli algoritmi che sovrintendono alla creazione dei codici fiscali, alla presentazione della dichiarazione precompilata o alla sua liquidazione automatizzata, e, fra i più complessi, a quelli impiegati nell’elaborazione dei cluster per l’applicazione degli ISA (e prima ancora degli studi di settore) e nel calcolo del grado di affidabilità fiscale del soggetto passivo.
Ciononostante, manca una definizione normativa di algoritmo. In sede europea, è stata formulata recentemente una proposta di Regolamento «che stabilisce regole armonizzate sull’intelligenza artificiale» e ne elenca le principali tecniche, distinguendo “approcci basati sulla logica e sulla conoscenza” (anche detti “simbolici”) da “approcci statistici” e “di apprendimento automatico”[27].
2.1 Dalla programmazione dettagliata alle macchine che apprendono - È possibile distinguere sistemi di intelligenza artificiale “simbolici” e “non simbolici” in base alla tipologia di algoritmi impiegati. I sistemi simbolici adottano algoritmi “deterministici”, ossia algoritmi che seguono una logica rigidamente causale. Quelli non simbolici si fondano su algoritmi “non deterministici” (“probabilistici” o “stocastici”), che contemplano cioè anche istruzioni probabilistiche o casuali, che dovrebbero meglio rappresentare le molteplici sfaccettature del reale.
La distinzione ricalca quella intuita da Alan Turing, che già nel 1950, nel suo celebre articolo “Computing machinery and intelligence”[28] immaginava “macchine in grado di imparare”, ponendole al confronto con le allora esistenti “macchine per fare calcoli”. Per ovviare alla lunga programmazione richiesta da queste ultime e alla loro rigidità di fronte a quesiti imprevisti, ipotizzava che, per la simulazione della mente adulta, fosse meglio realizzare un programma simile alla mente di un bambino, da sottoporre poi a un corso d’istruzione. Sul presupposto per cui il cervello infantile è simile ad un taccuino di cartoleria («[p]oco meccanismo e una quantità di fogli bianchi»[29]), reputava che sarebbe bastato costruire una macchina «più semplice possibile purché in accordo coi principi generali»[30], senza la necessità di incorporarvi un sistema completo di inferenza logica. In particolare, sarebbe stato opportuno che la programmazione di una “macchina che impara” contemplasse anche «un elemento casuale […] piuttosto utile quando cerchiamo la soluzione di qualche problema»[31]. Nei sistemi simbolici la sequenza di operazioni è predeterminata in fase di programmazione secondo la logica “se-allora” e conduce, all’esito di tutti i passaggi, a un risultato univoco[32].
Gli algoritmi deterministici sono alla base delle prime forme di intelligenza artificiale: i sistemi esperti (o “knowledge-based”), applicati sin dagli albori anche al settore della fiscalità. Essi attingono a una “base di conoscenza” fornita loro in fase di progettazione, costituita da un insieme predeterminato e fisso di regole “se-allora”[33], ed elaborano soluzioni a determinati quesiti grazie a un “motore inferenziale”. Risale ai primi anni Settanta del Novecento la sperimentazione, presso la Stanford Law School, del sistema esperto “Taxman”, in grado di condurre una forma rudimentale di ragionamento giuridico. Fornitagli la descrizione dei fatti di una riorganizzazione societaria, già nella sua prima versione, era in grado di analizzarli nei termini giuridici dell’“Internal Revenue Code” e di classificare l’operazione in uno dei vari tipi di riorganizzazione soggetti a diverso trattamento fiscale[34].
L’utilità dei sistemi esperti risiede nella capacità di elaborare rapidamente molte informazioni scegliendo una fra le tante regole (giuridiche, nel caso di Taxman) fornite loro in fase di programmazione, che invece l’esperto umano potrebbe dimenticare o ignorare. Presentano però alcuni svantaggi che è utile evidenziare per cogliere, all’opposto, le potenzialità delle tecniche di “machine learning” contemporanee. In primo luogo, l’intera “base di conoscenza” doveva essere creata manualmente attraverso un processo di programmazione lungo e dispendioso, poiché il “motore” non era in grado di intuire autonomamente le regole dai dati fornitigli[35]. Inoltre, la logica formale, basata sui due valori di verità “vero” e “falso”, non riflette al meglio la complessità della realtà, non riuscendo a cogliere i diversi gradi di verità o certezza di un fatto[36].
Gli algoritmi non deterministici, invece, si discostano da una logica strettamente causale, basandosi su relazioni statistiche. Sono, infatti, composti da istruzioni che ammettono diversi possibili risultati, fra i quali individuano di volta in volta il più probabile[37].
Un algoritmo è detto “di autoapprendimento” se, allenato sulla base di esperienze pregresse (i.e. dati), riesce a costruire un modello da applicare a nuovi dati[38]. Gli algoritmi di autoapprendimento sono impiegati nelle applicazioni di machine learning “supervisionato” e “non supervisionato”.
2.2 L’apprendimento supervisionato e l’inconveniente della “black box” - L’apprendimento supervisionato consente alla macchina, fornito un certo input, di prevedere l’output sulla base delle funzioni di valutazione apprese in fase di allenamento[39]. L’addestramento è costituito da coppie di dati input e output preventivamente classificati dal programmatore (“labeled data”[40]), fra i quali la macchina si allena a trovare le correlazioni. Sulla base di questi “training examples” essa apprende e impara a “generalizzare” la regola sottostante, che poi applicherà ai futuri input per ottenere gli output. La funzione di valutazione ricavata contempla generalmente fattori probabilistici.
Uno dei sistemi più risalenti e diffusi di machine learning supervisionato è l’“albero decisionale”, che replica l’andamento del pensiero umano. L’albero è una struttura di dati che consente di rappresentare elementi disposti in modo gerarchico (presso i “nodi”) e di identificare i rapporti di dipendenza logica di alcuni elementi da altri (indicati dai “rami”)[41]. L’algoritmo elabora i dati contenuti nei nodi secondo le regole incorporate in ciascuna ramificazione e, dunque, almeno nelle versioni più essenziali, il suo percorso può essere agevolmente ricostruito secondo la logica “se-allora” di ciascun passaggio. Di contro, gli alberi decisionali richiedono una lunga programmazione e sono, dunque, più esposti ai bias[42], cioè alle impostazioni errate, ai pregiudizi dei programmatori o agli errori presenti nei database. Inoltre, in alcune circostanze dimostrano una scarsa capacità di generalizzare le regole apprese durante l’addestramento[43]. Perciò ne sono state inventate alcune varianti (quali le “random forests”) che, grazie alla preponderanza di fattori probabilistici, risultano più affidabili, a scapito, però, dell’interpretabilità[44].
Altre tecniche supervisionate molto avanzate sono le “reti neurali”, nelle quali l’apprendimento è talmente profondo e articolato (“deep learning”) da risultare impenetrabile. Sono fitte reti, disposte in parallelo, di semplici unità in grado di processare informazioni (sul modello dei neuroni cerebrali) interagendo con la realtà[45].
Anch’esse apprendono sulla base di esempi, ma la programmazione è minima poiché le reti sono grado di auto-organizzarsi sulla base di esempi di coppie “input-output”[46].
Oltre a ricavare autonomamente la regola di correlazione fra gli input e gli output di esempio, la macchina è infatti in grado di autocorreggersi grazie ad algoritmi (detti di “backpropagation”) che, all’esito di più tentativi, fanno la strada inversa: tornano indietro dall’ultimo strato (quello dell’output) verso quelli intermedi per “informarli” degli errori registratisi[47]. L’esatto percorso compiuto dalla macchina non può essere ricostruito e, dunque, si parla di modelli oscuri o “black box”[48].
Anche questo fenomeno era già stato intuito da Turing, secondo cui «[u]na caratteristica importante di una macchina che impara è che il suo insegnante ignorerà spesso in gran parte ciò che di preciso si verifica al suo interno, quantunque possa essere in grado di predire in qualche misura il comportamento del suo allievo», il che «contrasta nettamente con la procedura normale quando si usa una macchina per fare calcoli»[49]. Eppure, proprio qui risiede, secondo l’illustre studioso, il segreto per la programmazione di macchine “intelligenti”: «La maggior parte dei programmi che possiamo inserire nella macchina avranno come risultato di farle fare qualcosa che non possiamo assolutamente capire, o che giudichiamo come comportamento completamente casuale. Il comportamento intelligente consiste presumibilmente nello staccarsi dal comportamento completamente prevedibile implicato nel calcolo, ma di poco, in modo da non determinare un comportamento casuale o dei giri viziosi che si risolvono in inutili ripetizioni»[50].
Pur non essendovi note tecniche pubbliche sul nuovo sistema di analisi del rischio fiscale, si è appreso da fonti ministeriali[51] che esso si avvale di algoritmi deterministici e probabilistici, che contemplano anche l’autoapprendimento supervisionato. In sintesi, quelli deterministici sfrutteranno relazioni logiche note fra le grandezze “reddito”, “spesa” “patrimonio” e “risparmio” per rilevare anomalie nei dati finanziari dei contribuenti, automatizzando ulteriormente quanto già avveniva con il redditometro. Invece, gli algoritmi probabilistici “auto-apprendono” nel senso che, addestrati sulla base degli accertamenti emessi in passato dall’Agenzia delle entrate, saranno in grado di delineare un profilo di rischio dei contribuenti non ancora controllati. Non si conosce il modello di apprendimento supervisionato adottato dall’A.F. In dottrina si è ipotizzato l’impiego di alberi decisionali, ma non è escluso che l’Amministrazione possa ricorrere a modelli più accurati, ma meno interpretabili, come le random forests o le reti neurali[52].
2.3 L’apprendimento non supervisionato - Mentre l’apprendimento di Ve.R.A. è “supervisionato” perché confronta dati già classificati dai programmatori (tipologia di accertamento passato e di soggetto passivo destinatario; diverse categorie di dati finanziari dei contribuenti non ancora controllati ecc.), non mancano ipotesi in cui l’A.F. ha utilizzato dati grezzi o pianifica di farlo.
L’apprendimento si dice “non supervisionato” se il sistema, analizzando dati grezzi (non precedentemente classificati, unlabeled), è in grado di ricavare autonomamente eventuali correlazioni tra di essi e, dunque, regole non immesse in fase di progettazione dell’algoritmo[53]. I punti di forza qui, oltre alla velocità di esecuzione (comune ai sistemi supervisionati), sono la versatilità e l’economicità: infatti, poiché la macchina apprende da dati grezzi, la programmazione è minima e sufficiente per l’applicazione nei più vari settori di esperienza. Inoltre, l’impiego di dati grezzi costituisce un risparmio di risorse, permette l’elaborazione di più vaste quantità di dati ed evita i “bias” del programmatore nella fase di classificazione[54]. Proprio le associazioni ricavate dagli algoritmi di apprendimento non supervisionato possono poi andare a costituire nuove banche di dati “classificati” da utilizzare nei sistemi supervisionati.
Fra le più note applicazioni non supervisionate, si pensi all’analisi delle componenti principali e al clustering, a lungo utilizzati per elaborare gli studi di settore e oggi gli indici sintetici di affidabilità fiscale (ISA)[55]. Tali tecniche individuano caratteristiche ricorrenti (prima ignote) all’interno di vaste quantità di dati grezzi e li raggruppano in insiemi omogenei[56]. In sintesi, ai fini della standardizzazione fiscale, sui dati di imprenditori e lavoratori autonomi viene eseguita dapprima l’analisi delle componenti principali, algoritmo che consente di identificare le variabili più rilevanti per la formazione dei gruppi; successivamente l’algoritmo di clustering valuta la probabilità di appartenenza di ciascun operatore economico a un gruppo e, infine, con una funzione statistica di regressione multipla si stimano i ricavi (e, ai fini degli ISA, anche il valore aggiunto) in base alle variabili ritenute più significative per ciascun gruppo di operatori economici[57].
2.4 Accuratezza delle previsioni vs interpretabilità dei risultati: una scelta difficile - Confrontando i vari metodi, gli esperti evidenziano un trade-off tra l’accuratezza delle previsioni e l’interpretabilità dei risultati[58]. In altri termini, i modelli deterministici, essendo impostati secondo la logica “se-allora”, conducono a risultati comprensibili, ma non sempre adatti a rappresentare la complessità delle situazioni reali. I modelli probabilistici, invece, tendono a essere più accurati ma meno intellegibili.
È stato osservato che, curiosamente, «[l]a scienza degli algoritmi ha […], nei suoi stessi presupposti, il riconoscimento dell’incertezza e dell’inevitabilità degli errori», poiché, per ovviare alla «difficoltà di risolvere con algoritmi veloci intere classi di problemi di dimensione elevata […], si usa l’espediente di indebolire la richiesta di esattezza, e si riguadagna l’efficienza ricorrendo ad algoritmi approssimati o a procedure il cui risultato coincide con la soluzione cercata con una probabilità sufficientemente alta»[59].
Questo compromesso rappresenta un dilemma per gli organi di indirizzo che debbono decidere se e quali sistemi intelligenti adottare nelle pubbliche amministrazioni, posto che ogni decisione amministrativa deve essere motivata esprimendone i presupposti di fatto e le ragioni giuridiche[60].
Allo stato attuale della tecnica, la pretesa di piena comprensibilità dell’intero processo decisionale adottato da un algoritmo «comporterebbe inevitabilmente la condanna all’inutilizzabilità degli strumenti informatici più efficaci, ovverossia dei sistemi non simbolici di IA: con riguardo all’utilizzazione di tali strumenti si potrà ragionevolmente pretendere un risultato trasparente (cioè un output univoco e interpretabile dagli umani/utenti senza fraintendimenti), ma non certo che l’algoritmo “motivi” le proprie scelte e che l’iter logico-decisionale che le ha prodotte sia pienamente comprensibile ed esplicabile»[61]. In tale direzione pare orientata la proposta di Regolamento europeo sull’intelligenza artificiale, che attualmente, anche per i c.d. “sistemi ad alto rischio”, si limita a richiedere che siano «progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente»[62].
3. Il nuovo assetto dell’istruttoria tributaria con l’introduzione di Ve.R.A., il software di analisi del rischio fiscale - La Legge di Bilancio 2020 (Legge 27 dicembre 2019, n. 160, art. 1, comma 682) prevede che l’Agenzia delle entrate, avvalendosi dei dati contenuti nell’archivio dei rapporti finanziari e «delle tecnologie, delle elaborazioni e delle interconnessioni con le altre banche dati di cui dispone», individui criteri di rischio fiscale per far emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo.
Si tratta – come reso noto dal MEF e dall’Agenzia – di elaborazioni algoritmiche che dovrebbero coadiuvare la Guardia di finanza e l’Agenzia delle entrate nell’analisi del rischio fiscale per l’elaborazione di “liste selettive” e nell’invito alla regolarizzazione[63] (con dichiarazione integrativa e ravvedimento operoso).
Non potendosi controllare, già dagli anni Settanta, tutte le dichiarazioni, nel nostro ordinamento si sono avvicendati meccanismi di controllo globale a sorteggio e di selezione in base al rischio di violazione delle disposizioni o di aggiramento della loro ratio[64]. Quella di selezione è una fase discrezionale[65] che si svolge nella cornice fornita dal MEF con l’atto di indirizzo per il conseguimento degli obiettivi di politica fiscale del triennio e con i criteri selettivi fissati annualmente[66]. Un ulteriore margine di discrezionalità consente poi agli uffici periferici di discostarsi parzialmente dalle priorità fissate a livello centrale, per reagire a indizi di evasione manifestatisi a livello locale[67]. Si delinea un sistema di selezione che, integrando vari livelli di analisi (centrale e locale; per comparto economico ecc.), tende costantemente all’efficienza dei controlli, in ossequio al principio di buon andamento dell’amministrazione (art. 97 Cost.).
In quest’ottica, ben prima di Ve.R.A., sono stati introdotti sistemi algoritmici per la selezione dei contribuenti da controllare e per il controllo automatizzato delle dichiarazioni. Trattandosi di strumenti con scopi affini o contigui a Ve.R.A., per comprendere il nuovo assetto dell’istruttoria tributaria, sembra opportuno richiamarne le caratteristiche principali. Il confronto si sofferma, in particolare, sugli scopi perseguiti, sulla tipologia di algoritmi adottati (ove nota), sui dati impiegati e sugli spazi di tutela del contribuente.
Giova sin d’ora precisare che l’adozione di strumenti di intelligenza artificiale nella fase selettiva non desta particolari perplessità e, anzi, risulta coerente con l’obiettivo perseguito, cioè l’incrocio di grandi quantità di dati alla ricerca di anomalie da approfondire in seguito. Anche l’opacità sulle tecniche impiegate è in linea con la tradizionale segretezza di quella fase e potrebbe essere giustificata dall’esigenza di evitare fenomeni di “ingegneria inversa” dei controlli.
Più problematico è il passaggio alla fase accertativa.
Si è visto che i vari metodi di intelligenza artificiale hanno rese diverse in termini di accuratezza e interpretabilità dei risultati: anche l’Amministrazione finanziaria, allo stato attuale della tecnica, si trova dunque a dover scegliere se privilegiare l’uno o l’altro aspetto. La scelta, tuttavia, pare obbligata e non può che andare nel senso della comprensibilità dei risultati, con un parziale sacrificio della performance. L’obiettivo del nuovo strumento, infatti, in ossequio al principio di buon andamento, non può essere solo quello di formare liste selettive, ma anche quello di fornire agli uffici dell’accertamento una base di partenza intellegibile e verificabile a posteriori.
Ciò vale a fortiori per la politica di promozione dell’adempimento spontaneo, poiché, sulla base degli indici di rischio individuati dal sistema algoritmico e indicati nella c.d. lettera di compliance, il contribuente dovrebbe essere messo in condizioni o di formulare osservazioni difensive o di riscontrare la fondatezza dell’anomalia e ravvedersi.
3.1 Gli indici sintetici di affidabilità fiscale - Gli indici sintetici di affidabilità fiscale, che hanno progressivamente sostituito gli studi di settore[68], consentono di verificare la normalità e la coerenza della gestione aziendale o professionale di una vasta platea di contribuenti (con ricavi o compensi fino a euro 5.164.569). Come noto, gli ISA, elaborati con tecniche statistiche simili a quelle impiegate negli studi di settore, si discostano da essi per la finalità dell’analisi, non più accertativa, ma di promozione della compliance spontanea e analisi del rischio di evasione fiscale.
In sintesi, una volta formati gruppi omogenei di imprese o professioni, vengono espresse su una scala da 1 a 10 alcune grandezze – gli “indicatori elementari di affidabilità” – significative per la gestione economica (ricavi/compensi per addetto; reddito per addetto; valore aggiunto per addetto). Per ogni grandezza di ciascun gruppo di operatori si individua una soglia o un intervallo economicamente plausibile, avuto riguardo alle pratiche osservate nel settore, nel modello di business e nell’area territoriale di appartenenza. Rapportando il valore dell’indicatore elementare dichiarato con quello stimato, viene attribuito: il punteggio massimo (10) se il rapporto è pari o superiore a 1; il punteggio minimo (1), se il rapporto è inferiore alla soglia “plausibile”; un punteggio graduato (tra 1 e 10), se il rapporto è compreso tra la soglia minima e la soglia massima. Si effettua poi la media aritmetica dei punteggi ottenuti per ciascun indicatore elementare e si verifica l’esistenza e l’incidenza di eventuali “indicatori di anomalia” (come un margine operativo lordo negativo o la mancata corrispondenza del numero totale di incarichi con il modello CU) che possono ridurre sensibilmente il punteggio di sintesi. Su tale punteggio incide anche un “coefficiente individuale”, calcolato sulla base dei dati dei precedenti otto periodi d’imposta relativi al medesimo contribuente, che dovrebbe cogliere la differente produttività dei singoli soggetti (dovuta, ad esempio, a diverse abilità manageriali, potere di mercato, ecc.)[69]. Ai sensi del comma 3, dell’art. 9-bis, D.L. n. 50/2017, il sistema attinge, infatti, dalle dichiarazioni fiscali previste dall’ordinamento vigente e da altre fonti, fra cui quelle disponibili presso l’Anagrafe tributaria, le agenzie fiscali, l’INPS, l’Ispettorato nazionale del lavoro e la Guardia di finanza. Tali dati possono rilevare nelle fasi di progettazione degli ISA e nella loro applicazione al singolo contribuente (ad esempio, appunto, per l’emersione di anomalie).
Come si può intuire dalla complessità delle operazioni statistiche e dalla varietà delle fonti informative del “sistema ISA”, vengono impiegati algoritmi di tipo deterministico e probabilistico, comprese applicazioni di autoapprendimento non supervisionato (come il clustering).
Le principali caratteristiche degli algoritmi impiegati nella progettazione dei modelli e nel calcolo del punteggio finale sono illustrate – come già avveniva per gli studi di settore – nelle note tecniche e metodologiche approvate annualmente con decreto del MEF[70].
Nonostante lo sforzo in termini di trasparenza[71], i meccanismi delineati non sono di facile comprensione per i soggetti privi di competenze informatico-statistiche[72]. Probabilmente è questa una delle ragioni che hanno indotto il legislatore a privare gli studi di settore di rilievo ai fini dell’accertamento, in favore della promozione della compliance spontanea con gli ISA.
I contribuenti che conseguono un punteggio alto beneficiano di un regime premiale che prevede, fra l’altro, l’esclusione degli accertamenti sintetici o basati su presunzioni semplici e l’anticipazione di almeno un anno (con graduazione in base al livello di affidabilità) dei termini di decadenza per l’attività di accertamento delle imposte dirette e dell’Iva[73].
Il conseguimento di un punteggio basso può comportare, invece, l’inclusione nelle liste selettive dei contribuenti da controllare[74], circostanza evitabile correggendo eventuali errori di compilazione o dichiarando componenti positivi che non risultano dalle scritture contabili e che rileveranno anche ai fini IRAP e IVA[75].
3.2 La liquidazione informatizzata delle dichiarazioni - Anche la liquidazione informatizzata delle dichiarazioni ai fini delle imposte dirette e dell’Iva si avvale di algoritmi, sui quali non sono però disponibili note tecniche. La procedura automatizza si applica nelle ipotesi tassative previste dagli artt. 36-bis, D.P.R. 29 settembre 1973, n. 600, e 54-bis, D.P.R. 26 ottobre 1972, n. 633, consiste in un controllo cartolare basato esclusivamente sui dati dichiarati e su quelli desumibili dall’Anagrafe tributaria ed è tesa, sostanzialmente, alla correzione di errori materiali e formali commessi in dichiarazione o in occasione dei versamenti. Se dal controllo emerge un risultato diverso dal dichiarato, l’esito è comunicato con avviso bonario al contribuente per evitare la reiterazione di errori e consentire la regolarizzazione entro trenta giorni col versamento della maggiore imposta e della sanzione (per omesso versamento) ridotta ad un terzo[76]. In luogo della regolarizzazione, entro lo stesso termine, il contribuente può segnalare all’Amministrazione eventuali elementi non considerati o valutati erroneamente nella liquidazione dei tributi[77]. In caso di mancato pagamento o se la tesi del contribuente venga disattesa, le somme e l’intera sanzione sono iscritte a ruolo[78].
Il numero “chiuso”, l’immediata rilevabilità degli errori censurabili, la cartolarità del controllo e la possibilità di attingere a una quantità limitata di informazioni lasciano intuire l’utilizzo di algoritmi elementari, che si limitano al ricalcolo di alcuni importi e all’incrocio del dichiarato con le informazioni presenti in Anagrafe, senza il ricorso a variabili probabilistiche. Ciononostante, la prassi mostra una progressiva estensione dello strumento automatizzato oltre i limiti che si evincono dalla lettera della norma. Facendo leva sull’indeterminatezza del concetto di “errore materiale”[79] nella determinazione degli imponibili, delle imposte e del volume d’affari, si assiste a rettifiche – talora censurate dalla giurisprudenza[80] – che sottendono valutazioni giuridiche e sforzi interpretativi superiori rispetto a quelli realizzabili in sede di liquidazione[81]. Trattandosi di una procedura totalmente automatizzata, sorgono, quindi, dubbi sull’effettiva aderenza della programmazione informatica al dettato normativo con evidenti riflessi sulle possibilità di tutela del contribuente. A differenza degli ISA e – come si dirà a breve – di Ve.R.A., la liquidazione informatizzata dà luogo, infatti, a un recupero diretto delle somme, mediato solo, eventualmente, dalla notifica della cartella di pagamento. La sostanziale assenza di un obbligo di contraddittorio preventivo[82]-[83] e le frequenti deroghe a quello di motivazione[84] possono rendere scarsamente intellegibile anche l’esito di un controllo in apparenza elementare come quello esaminato.
Tali criticità devono essere tenute a mente se si valuta – come proposto di recente[85] – di adottare il modello dell’avviso bonario per promuovere l’adempimento spontaneo a seguito dell’emersione di anomalie con Ve.R.A.[86].
3.3 L’analisi del rischio fiscale in base all’incrocio dei dati dell’Archivio dei rapporti finanziari e di altre banche dati - Tornando ora al nuovo sistema di analisi del rischio fiscale, la disposizione si limita a un generico riferimento a “tecnologie”, “elaborazioni” e “interconnessioni” fra l’Archivio dei rapporti finanziari e le altre banche dati di cui dispone l’Agenzia delle entrate.
L’“Archivio dei rapporti finanziari” è una sezione dell’Anagrafe tributaria che contiene informazioni: (i) sui conti correnti e gli altri rapporti finanziari del contribuente o a sua disposizione in virtù di deleghe o procure (parte anagrafica); (ii) sulle relative movimentazioni contabili in forma aggregata; sul saldo iniziale e finale; per alcune tipologie di conto, anche sulla giacenza media annua; e, infine, sulle eventuali operazioni effettuate al di fuori di un rapporto continuativo con l’intermediario (parte contabile).
Istituito nel 1991[87], limitatamente alla parte anagrafica, e ampliato nel 2011 con la sezione contabile[88], l’Archivio avrebbe dovuto rendere più efficiente l’attività di controllo sulle imposte dirette e l’Iva, ma la sua attuazione è stata piuttosto travagliata[89]. Con l’aggiunta della sezione contabile, l’Archivio avrebbe dovuto supportare dapprima l’elaborazione centralizzata di liste selettive per i controlli e, successivamente, una più vasta analisi del rischio fiscale. Lo sfruttamento a fini istruttori dell’archivio, però, diviene realtà solo ora, in ottemperanza agli impegni presi nell’ambito del PNRR per la riduzione dell’evasione fiscale[90].
Da un progetto ministeriale allegato al PNRR e dai provvedimenti del Garante della privacy, si è appreso che i dati dell’Archivio e degli altri database dell’Agenzia saranno trattati con algoritmi deterministici e probabilistici di autoapprendimento supervisionato e non supervisionato.
L’approccio deterministico (ossia causale) permette di «ricostruire […] il patrimonio e i flussi finanziari di un contribuente, al fine di evidenziare le incoerenze sussistenti tra la variazione degli stessi, i redditi dichiarati, il consumo e il risparmio»[91]. L’incrocio dei dati forniti dall’Archivio con quelli presenti in altre banche a disposizione dell’Amministrazione finanziaria dovrebbe migliorare «l’efficacia computazione dei modelli deterministici, consentendogli di riuscire a rappresentare la situazione reddituale, patrimoniale e l’allocazione del risparmio del contribuente e, in ultima istanza, la sua capacità contributiva»[92]. Gli algoritmi qui impiegati si possono definire deterministici perché basati su nessi logici ben noti fra il reddito, le spese, il risparmio e il patrimonio.
L’approccio probabilistico, a differenza del precedente, non muove da uno schema individuato a priori (quale quello “reddito-spesa-patrimonio-risparmio”), ma impiega algoritmi che esplorano i dati per scoprire ricorrenze e strutture significative. Nel piano delineato dal MEF, l’apprendimento è prevalentemente supervisionato, perché l’algoritmo lavora su dati “classificati”, estratti dall’archivio, da altre banche dati e dagli accertamenti passati, ed è addestrato sulla base di questi ultimi. In particolare, l’obiettivo è «attraverso lo studio delle caratteristiche dei soggetti nei cui confronti è stato già emesso un avviso di accertamento con il quale è stata rilevata l’omessa fatturazione o la sotto-fatturazione dei proventi percepiti, di estrarre profili fiscali ed economico-finanziari dei contribuenti»[93]. Non mancano applicazioni non supervisionate, per l’«individuazione di gruppi di soggetti omogenei rispetto alle caratteristiche descritte dai dati»[94].
Inoltre, non devono essere sottovalutate le potenzialità di una combinazione di tecniche deterministiche e probabilistiche. Rende, infatti, noto il MEF che i due approcci «possono essere utilizzati in modo sinergico per migliorare la selezione dei soggetti a maggior rischio fiscale e, nello specifico, gli esiti di quello stocastico possono fungere da input per l’individuazione dei parametri dei modelli deterministici, ovvero essere utilizzati per ridurre la platea di riferimento»[95].
La “trasparenza” sulle caratteristiche del nuovo strumento, tuttavia, si ferma qui.
In merito all’approccio deterministico, non è dato conoscere né la platea dei contribuenti coinvolti, né come siano concretamente espresse le relazioni fra il reddito, la spesa, il patrimonio ed il risparmio. Quanto reso noto dal MEF rievoca il meccanismo dell’accertamento sintetico dei redditi delle persone fisiche, che, prescindendo da un esame di congruità dei singoli redditi dichiarati, permette di desumere il reddito complessivo dalle spese sostenute. Il nuovo strumento però non è, e non dovrebbe diventare, un metodo di accertamento, dovendosi invece limitare a segnalare anomalie sintomatiche di un rischio fiscale elevato. Si può quindi ipotizzare l’esistenza di coefficienti (ignoti al pubblico) espressivi di un rapporto fisiologico fra le predette grandezze, oltre o al di sotto dei quali emergerebbe l’anomalia[96].
Quanto poi alle funzioni probabilistiche, non è noto il modello di apprendimento supervisionato utilizzato. Il metodo più immediato e intellegibile, l’albero decisionale, potrebbe calcolare la probabilità che si verifichi uno specifico tipo di rischio fiscale (quale l’infedele dichiarazione), in un dato periodo d’imposta, sulla base dell’osservazione delle caratteristiche individuali di contribuenti diversi estrapolate da accertamenti passati[97]. Come si è accennato, non è tuttavia escluso che l’Amministrazione possa ricorrere a modelli con maggiore capacità predittiva, ma meno interpretabili, come le random forests o le reti neurali[98]. A causa della dettagliata programmazione di cui necessitano gli alberi decisionali rispetto ad altri metodi, è maggiore il rischio che il software risenta dei bias cognitivi dei programmatori. Non è garantito, ad esempio, che dal database degli accertamenti vengano espunti quelli sistematicamente annullati in giudizio, in base ai quali la macchina traccerebbe profili di rischio non attendibili, perpetuando un’inefficienza del sistema istruttorio[99].
Nella selezione automatizzata delle caratteristiche individuali che vanno a comporre il profilo di rischio, occorre poi tenere in considerazione che l’approccio probabilistico ricerca correlazioni tra grandi quantità di dati e non rapporti di causalità.
Come suggerisce l’esperienza estera, l’eccessivo affidamento riposto su mere correlazioni scovate dalla macchina può determinare risultati fallaci e finanche discriminatori di gruppi specifici[100]. Si pensi allo scandalo olandese – che ha recentemente causato le dimissioni del Governo in carica – sul recupero massivo automatizzato dei rimborsi fruiti da molte famiglie, in condizioni economiche svantaggiate, per l’iscrizione dei figli alla scuola dell’infanzia.
In estrema sintesi, un’inchiesta parlamentare ha denunciato il fatto che il sistema algoritmico a ciò preposto avesse classificato genitori di origine straniera come indebiti percettori, probabilmente perché addestrato sulla base di accertamenti passati di frodi commesse prevalentemente da soggetti stranieri[101]. Poiché il regime normativo dei rimborsi non attribuiva alcun rilievo alla cittadinanza dei beneficiari, tale dato, presente negli accertamenti passati, avrebbe dovuto essere escluso dall’analisi. Invece, l’errata programmazione del sistema di analisi del rischio e la quasi totale assenza di un controllo “umano” posteriore hanno determinato l’emissione di migliaia di atti di recupero illegittimi, con gravi conseguenze sociali e sui bilanci familiari.
Infine, un’ultima nota di metodo, anche se ovvia: poiché i meccanismi di machine learning procedono sulla base di esempi (nel nostro caso, un database di accertamenti passati opportunamente “massimati”), possono rilevare efficacemente violazioni abituali o seriali, ma appaiono del tutto inidonei a fronteggiare nuove forme di evasione o elusione fiscale, che, invece, sono all’ordine del giorno[102].
Se poco si conosce sulla programmazione sostanziale di Ve.R.A., qualche cenno sul procedimento applicativo si evince dal D.M. 28 giugno 2022, dalla circolare dell’Agenzia del 20 giugno 2022, n. 21/E e dalla valutazione di impatto del Garante della privacy del 30 luglio 2022.
Il sistema di intelligenza artificiale verrà applicato ai soggetti titolari dei dati contenuti nell’Archivio dei rapporti finanziari e nelle altre banche dati a disposizione dell’A.F. (dataset di analisi).
In particolare, superando una delle censure del Garante, il MEF garantisce che incrocerà solo dati “comuni” (e, dunque, non “sensibili” come quelli desumibili da alcune detrazioni fiscali[103]), relativi all’identità anagrafica e alla capacità economica, tra cui dati riguardanti le dichiarazioni fiscali, il patrimonio mobiliare e immobiliare, dati contabili e finanziari, dati sui pagamenti, sui versamenti e sulle compensazioni. L’elenco delle fonti informative che alimenteranno il nuovo sistema algoritmico è esteso e comprende pressoché ogni banca dati a disposizione dell’Agenzia[104]. La pseudonimizzazione e la perturbazione delle variabili dovrebbero impedire di risalire all’identità dei contribuenti durante l’analisi (art. 5, comma 5, D.M. 28 giugno 2022).
L’analisi algoritmica permetterà di isolare le posizioni fiscali caratterizzate dalla ricorrenza di uno o più rischi fiscali (dataset di controllo). Su ciascuna di queste potrebbe essere compiuto un procedimento di «profilazione finalizzato a ottenere ulteriori caratterizzazioni dei contribuenti presenti nel dataset di controllo»[105]. Le posizioni considerate “ad alto rischio”, all’esito di tali elaborazioni, saranno incluse nelle nuove liste selettive da trasmettere alle Direzioni regionali e provinciali per orientarne «l’ordinaria attività di controllo […], previa autonoma valutazione della proficuità comparata»[106]. Solo a questo punto, le posizioni selezionate potranno essere “decrittate”[107] per l’avvio dell’attività di controllo o per l’invito alla compliance.
Benché l’ambito di applicazione soggettivo di Ve.R.A. ricomprenda tutti i contribuenti, la circolare menziona espressamente solo tre liste selettive elaborate col nuovo metodo, concernenti enti associativi[108], società di persone e di capitali[109].
L’inclusione nelle liste selettive può determinare l’attivazione dei controlli tradizionali, con la possibilità che sia emesso un avviso di accertamento, o l’invito alla regolarizzazione della posizione fiscale[110] con la dichiarazione integrativa e il ravvedimento operoso. Ogni atto o provvedimento indirizzato al contribuente dovrà illustrare «il rischio fiscale identificato e i dati che sono stati utilizzati per la sua individuazione» (art. 5, D.M. 28 giugno 2022).
Nonostante il silenzio della circolare, è probabile che Ve.R.A. coinvolga presto anche le persone fisiche, considerando che già esiste per esse un sistema ben collaudato di “lettere di compliance” e che il Garante della privacy ha recentemente avallato, pur con diverse riserve, il nuovo trattamento automatizzato[111].
3.3.1 La controversa natura della “lettera di compliance” recante l’esito dell’analisi algoritmica e l’invito alla regolarizzazione - In base alla panoramica sin qui tracciata, anche Ve.R.A., come gli altri strumenti algoritmici richiamati, sembrerebbe espressione di quell’approccio collaborativo nei rapporti Fisco-contribuente, in atto ormai da qualche tempo, teso all’emersione spontanea e tempestiva degli imponibili attraverso strumenti di dialogo preventivo e/o di regolarizzazione degli errori.
La disciplina, valutata nel suo complesso, non denota però una natura collaborativa così marcata.
Manca, innanzitutto, la garanzia di un vero contraddittorio: né la disposizione legislativa né il Decreto ministeriale obbligano gli Uffici all’invio delle c.d. “lettere di compliance”[112], in risposta a cui i contribuenti potrebbero presentare osservazioni sulle anomalie riscontrate. Se il contribuente non viene invitato all’adempimento spontaneo, la possibilità di un confronto con l’Amministrazione rimane affidata alle previsioni frammentate delle singole tipologie di accertamento[113] o a quelle ricche di deroghe contenute nell’art. 5-ter, D. Lgs. n. 218/1997.
Inoltre, a differenza degli ISA e della liquidazione informatizzata, l’approvazione di Ve.R.A. è stata accompagnata da una seria compressione del diritto alla tutela dei dati personali nei procedimenti tributari, anche quando basati su profilazioni automatizzate. Contestualmente, infatti, con una novella al D.Lgs. n. 196/2003, è stata prevista la possibilità di precludere l’esercizio di importanti diritti sanciti dal GDPR (quali l’accesso, la rettifica di dati inesatti, il diritto all’intervento umano e a conoscere l’esistenza e la logica di un procedimento decisionale automatizzato) quando possa derivarne «un pregiudizio effettivo e concreto […] agli interessi tutelati in materia tributaria e allo svolgimento delle attività di prevenzione e contrasto all’evasione fiscale»[114].
Si consideri, infine, che la natura delle c.d. “lettere di compliance”, su cui l’adempimento spontaneo si fonda, è dubbia e in evoluzione.
Nell’impostazione vigente, si tratta di un meccanismo molto flessibile di comunicazione fra Fisco e contribuente, attraverso il quale l’Agenzia delle entrate può segnalargli eventuali anomalie. Costui può formulare osservazioni difensive o, se riconosce l’errore o l’omissione, presentare la dichiarazione integrativa usufruendo del ravvedimento operoso. Attualmente la lettera di compliance, a differenza di un avviso bonario, non prelude all’iscrizione a ruolo di un maggior tributo e può essere seguita dalla notifica di un atto impositivo.
Poiché la promozione della compliance spontanea costituisce uno dei principali impegni presi in sede di PNRR[115], è tuttavia all’esame del MEF la possibilità di rendere più “incisiva” la lettera di compliance, assimilandola a un avviso bonario per vari profili. In particolare, l’ultima relazione sull’economia non osservata e l’evasione fiscale presentata al Ministero[116] propone di riformare la disciplina della lettera facendo sì che, decorsi sessanta giorni dalla sua ricezione, in assenza di ravvedimento, ricorso al giudice tributario o presentazione di osservazioni agli Uffici, «la comunicazione [divenga] titolo per l’iscrizione a ruolo delle somme in essa indicate, che verrebbero richieste con un’apposita cartella di pagamento». A tal fine, le lettere dovrebbero contenere «l’invito a produrre gli elementi informativi e i documenti rilevanti al fine di giustificare l’anomalia; le indicazioni utili a regolarizzare gli errori commessi avvalendosi del ravvedimento operoso, unitamente all’indicazione dei maggiori imponibili e delle aliquote applicabili, dell’imposta, delle sanzioni e degli interessi, calcolati in base alla disciplina propria di ciascun tributo».
Se un simile progetto di riforma dovesse avere successo, le lettere di compliance “mutuerebbero” dai procedimenti ex artt. 36-bis D.P.R. n. 600/1973 e 54-bis D.P.R. n. 633/1972 le criticità già evidenziate in termini di motivazione e contraddittorio preventivo[117]. Nel procedimento ex artt. 36-bis e 54-bis possono talora accettarsi standard di tutela inferiori a quelli generalmente assicurati nell’attività accertativa, perché tale controllo attinge tradizionalmente ai dati dichiarati dal contribuente, che egli ben conosce. Con la progressiva espansione del contenuto dell’Anagrafe tributaria e con lo sviluppo di nuove tecniche di analisi, tuttavia, l’incrocio fra i dati dichiarati e quelli comunque in possesso dell’A.F. può sfuggire alla piena cognizione del contribuente.
Appare quindi labile il confine fra l’attività di stimolo all’adempimento spontaneo e l’attività impositiva (pur se cristallizzata in un atto della riscossione quale la cartella[118]). Qui si intravede un potenziale cortocircuito del nuovo sistema intelligente di analisi del rischio: da un lato, lo si promuove come strumento di collaborazione scevro da formalità particolari e non lesivo; dall’altro, si rischia di trasformarlo nel veicolo di un accertamento “automatizzato” privo di garanzie (di quelle riservate all’ordinaria attività impositiva e – come si preciserà di seguito – di quelle previste dal GDPR in caso di decisione basata unicamente sul trattamento automatizzato dei dati personali).
3.3.2 La limitata tutela dei dati personali nei procedimenti automatizzati tributari - Per quanto più rileva in tema di elaborazioni algoritmiche, la disciplina europea della privacy pone dei limiti alle decisioni automatizzate e alle attività di profilazione che generalmente le precedono. Si è tuttavia osservato che, come avviene anche nel nostro ordinamento, tali diritti possono subire deroghe nel pubblico interesse.
Le garanzie, seppur ricche di deroghe, previste dalla disciplina europea sono rivolte alle persone fisiche. Né la Convenzione n. 108/1981 né il GDPR tutelano espressamente la riservatezza dei dati relativi a persone giuridiche: ciononostante, poiché «dietro le persone giuridiche vi saranno comunque una o più persone fisiche»[119], occorre valutare se il trattamento di informazioni relative ad organizzazioni quali associazioni, enti o società di capitali è concretamente idoneo a rivelare i dati di una persona fisica identificata o identificabile.
Occorre poi domandarsi se la mera afferenza di dati personali all’esercizio di un’attività economica sia idonea a privarli delle garanzie dettate in materia di privacy. È bene premettere sin d’ora che, secondo il consolidato orientamento della Corte Edu[120] e della Corte di giustizia UE[121], anche in questo caso le informazioni conservano il loro carattere di “dato personale”. I dati fiscali tuttavia, al pari dei dati finanziari (sui quali le Corti si sono pronunciate più di frequente[122]), non costituiscono “dati sensibili”, il cui trattamento è subordinato al rispetto di rigide garanzie. In presenza di dati di carattere prettamente patrimoniale o reddituale, nel bilanciare l’interesse pubblico e l’interesse privato, la giurisprudenza riconosce un più ampio margine di apprezzamento alle autorità pubbliche[123]. Tale discrezionalità tende, invece, a ridursi drasticamente laddove una restrizione al diritto alla vita privata e familiare sia tale da pregiudicare i diritti fondamentali e la sfera intima dell’individuo (in altri termini, laddove l’attività pubblica impatti su un aspetto particolarmente importante dell’esistenza o dell’identità)[124].
Di quali garanzie si tratta? Oltre ai tradizionali diritti al controllo sull’uso dei propri dati personali (come quelli di accesso o rettifica di errori), sia il GDPR sia la Convenzione 108/1981 sanciscono il diritto a non essere sottoposti a decisioni totalmente automatizzate, compresa la profilazione, e a conoscere la logica e l’esistenza di simili trattamenti.
Nel preambolo del GDPR, è definita “profilazione” «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l'affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica»[125].
Il concetto di profilazione evoca pratiche commerciali volte a intuire gli interessi dei consumatori, per ampliare il mercato di una certa attività economica, o tese a prevedere la solvibilità del candidato per un prestito. A ben vedere, però, anche l’Amministrazione tributaria, con gli strumenti di analisi avanzata dei dati esaminati, «valuta aspetti personali […] al fine di analizzare o prevedere […] la situazione economica […] l’affidabilità o il comportamento»[126] dei contribuenti. L’attività di profilazione fiscale è ben esemplificata dal “sistema ISA” e dal nuovo strumento di analisi del rischio fiscale.
Secondo il GDPR, l’individuo avrebbe diritto a non essere sottoposto a una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che la riguardino o che incida significativamente sulla sua persona (art. 22, comma 1). Il preambolo del Regolamento esemplifica tali “effetti giuridici significativi” facendo riferimento a due situazioni: il rifiuto automatico di una domanda di credito online o pratiche di assunzione elettronica dei lavoratori senza l’intervento umano[127]. Senz’altro ha “effetti giuridici significativi” anche qualsiasi decisione automatizzata dell’Amministrazione finanziaria lesiva per il contribuente. In linea di principio, quindi, nelle attività di profilazione e in qualsiasi attività che sfoci in un provvedimento, dev’essere garantito l’intervento umano[128].
È fatta salva, tuttavia, la possibilità degli Stati membri di derogare a tutti i diritti menzionati per attività di “monitoraggio e prevenzione delle frodi e dell’evasione fiscale”, a condizione che la deroga sia contenuta in una misura legislativa dello Stato membro o dell’Unione e «rispetti l’essenza dei diritti e delle libertà fondamentali e sia una misura necessaria e proporzionata in una società democratica per salvaguardare […] un rilevante interesse economico o finanziario dell’Unione o di uno Stato membro, anche in materia monetaria, di bilancio e tributaria» (artt. 22, comma 2, lett. b, e 23, comma 1, lett. e, GDPR).
Come si è accennato, il legislatore italiano ha attuato questa possibilità di deroga con la Legge di bilancio 2020 (Legge 27 dicembre 2019, n. 160), che ha inserito nel D. Lgs. n. 196/2003 una clausola di limitazione dei diritti in questione quando possano comportare «un pregiudizio effettivo e concreto […] agli interessi tutelati in materia tributaria e allo svolgimento delle attività di prevenzione e contrasto all’evasione fiscale»[129].
Il D.M. 28 giugno 2022 ha confermato che tale clausola opererà nell’attuazione del nuovo strumento di analisi del rischio Ve.R.A. In particolare, viene impedito l’esercizio dei diritti di limitazione del trattamento e opposizione e viene limitato il diritto di accesso[130]. Il D.M. citato non pone alcuna limitazione ai diritti all’intervento umano e a conoscere l’esistenza e la logica di procedimenti decisionali automatizzati e, anzi, specifica che «[n]el processo di formazione dei dataset di analisi e controllo è sempre garantito l’intervento umano» (art. 5, comma 5).
La ragione si deve probabilmente al fatto che Ve.R.A. si colloca nella fase di selezione dei contribuenti da controllare e, dunque, l’esito dell’analisi non dovrebbe fondare automaticamente un atto impositivo. Non vi sono però concrete garanzie sull’intervento umano a valle dell’analisi algoritmica. Lo stesso Garante della privacy ha da ultimo evidenziato il rischio che i funzionari delle Direzioni regionali, che potrebbero integrare l’analisi ricevuta, possano «ritenere più prudente non opporsi alle risultanze dei sistemi algoritmici»[131].
Il rischio si concretizzerebbe se venisse accolta la discussa proposta di assimilazione delle lettere di compliance agli avvisi bonari ex art. 36-bis D.P.R. n. 600/1973: in tal caso, gli esiti dell’analisi algoritmica giustificherebbero un recupero tributario diretto (eventualmente mediato dalla notifica della cartella di pagamento) privo dell’intervento umano.
Infine, nell’ambito della “semplificazione del trattamento di dati personali da parte di pubbliche amministrazioni” attuata dal D.L. n. 139/2021, il legislatore italiano ha fortemente ridimensionato il ruolo del Garante rispetto ai trattamenti, effettuati nello svolgimento di un compito di interesse pubblico, che, prevedendo l’uso di nuove tecnologie, pongano un rischio elevato per i diritti e le libertà delle persone fisiche.
In precedenza, avvalendosi di una facoltà di maggior tutela prevista dal GDPR, il nostro ordinamento conferiva al Garante il potere di adottare d’ufficio provvedimenti di carattere generale recanti misure e accorgimenti a garanzia degli amministrati, vincolanti per le amministrazioni (art. 2-quinquies decies, D. lgs. n. 196/2003, sulla scorta dell’art. 36, comma 5, GDPR). La disposizione in questione è stata abrogata ad opera del D.L. n. 139/2021[132].
4. Dalla profilazione alla decisione: quale tutela per il contribuente nel passaggio dalla fase di selezione a quella accertativa? - Il nostro ordinamento è privo di uno statuto dei controlli digitali e degli accertamenti automatizzati.
Per i controlli tradizionali, vige, come noto, un articolato sistema di informative, autorizzazioni preventive, diritti all’assistenza professionale e al contraddittorio procedimentale[133]. Tale sistema, seppur con intensità differenziata a seconda che si tratti di diritti economici o di libertà personali, è volto a tutelare diritti costituzionalmente garantiti come quelli di libera iniziativa economica[134], di difesa, di libertà personale e di riservatezza del domicilio e della corrispondenza[135].
Manca, invece, un simile regime di garanzie dinanzi alle sempre più diffuse elaborazioni informatiche di dati dei contribuenti poc’anzi descritte[136]. Sebbene tali analisi si collochino prevalentemente nella fase di selezione dei contribuenti da sottoporre a controllo, le attività concretamente svolte sembrano assumere i connotati della “verifica digitale”. Infatti, stante la controversa natura delle c.d. “lettere di compliance”, appare labile il confine tra le attività di analisi del rischio e quelle di controllo. In senso contrario depone la precisazione del D.M. 28 giugno 2022, in base alla quale gli «indicatori di rischio desunti o derivati non vengono memorizzati in archivi o basi dati diversi dai data set di analisi e controllo e non sono utilizzati per finalità diverse dall’analisi del rischio» (art. 5, comma 5). La successiva valutazione d’impatto del Garante della privacy ha però rilevato il rischio che i funzionari delle Direzioni regionali, a cui è riconosciuta la possibilità di «integrare le informazioni ricevute con quelle già in loro possesso e riesaminarle in base alla profonda conoscenza del territorio di riferimento»[137], possano «ritenere più prudente non opporsi alle risultanze dei sistemi algoritmici, vanificando la garanzia connessa alla necessità dell’intervento umano nel processo decisionale»[138].
Si suole definire “verifica” il controllo sulla «coerenza della realtà materiale (p.es. la consistenza del magazzino) o di taluni documenti (p.es. le fatture emesse o ricevute) con il contenuto di altri documenti (le dichiarazioni, la contabilità ecc.)»[139], controllo in genere effettuato a valle di accessi e/o ispezioni. Già da tempo, nel controllo sostanziale delle dichiarazioni, si assiste a un utilizzo crescente di dati digitali, forse ormai prevalente rispetto all’acquisizione fisica di informazioni e documenti attraverso accessi e ispezioni. Come noto, si tratta di dati conservati principalmente nell’Anagrafe tributaria[140], raccolti dalle dichiarazioni fiscali, da altri adempimenti e dalle comunicazioni di enti terzi coi quali i contribuenti interagiscono utilizzando il codice fiscale o la partita IVA. Ad essi si aggiungano quelli contenuti in altre banche dati dell’A.F. e di altre pubbliche amministrazioni, oramai utilizzabili dalla prima senza particolari limitazioni grazie alle riforme sull’interoperabilità.
Ebbene, anche le elaborazioni algoritmiche sin qui esaminate attuano un controllo sulla coerenza della realtà materiale (risultante, ad esempio, da un pubblico registro di beni mobili o immobili) o di documenti (come le fatture elettroniche o i riepiloghi delle movimentazioni bancarie) rispetto al contenuto di altri documenti (come le dichiarazioni), con la differenza che il raffronto è eseguito in forma automatizzata e massiva.
Come abbiamo affermato in apertura, mancando una disciplina dedicata ai poteri istruttori nel contesto digitale, non incontra particolari ostacoli l’utilizzo degli esiti di tali analisi a fondamento degli avvisi di accertamento[141]. Ai fini della determinazione delle imposte sui redditi, tanto le metodologie analitiche quanto quelle induttive contemplano il ricorso degli enti impositori alle «informazioni di cui siano comunque in possesso» (art. 37, D.P.R. n. 600/1973)[142]. Inoltre, sul “ragionamento algoritmico” potrebbero innestarsi nuove presunzioni semplici o semplicissime (secondo i requisiti prescritti per ciascun metodo di accertamento), cui l’A.F. potrebbe ricorrere per desumere, da un fatto noto, la sussistenza di un fatto ignoto o la stima di un valore[143]. Del resto, come nella presunzione vi è una massima d’esperienza o un ragionamento induttivo che lega circostanze note a circostanze ignote, anche gli algoritmi, attraverso una serie (ordinata e finita) di istruzioni, generano un risultato sulla base dei dati immessi.
In maniera non dissimile da quanto accadeva con l’applicazione degli studi di settore o del redditometro, muovendo da fatti-indice tratti dall’Anagrafe tributaria, dalle dichiarazioni e/o da altre banche dati, il sistema algoritmico potrebbe inferire, con un certo grado di probabilità, la sussistenza di comportamenti evasivi. Ad esempio, dopo un’attività di profilazione, incrociando i dati sul reddito, la spesa, il risparmio e il patrimonio di un contribuente, in presenza di anomalie rispetto a una platea di contribuenti simili, si potrebbe desumere l’esistenza di una certa quota di redditi non dichiarati.
Ancora, attraverso l’analisi automatizzata delle fatture elettroniche[144], l’Agenzia delle entrate potrebbe presumere lo svolgimento di un’attività economica abituale da parte di soggetti che acquistano, in qualità di consumatori finali (fornendo al cedente il solo C.F. in luogo della partita IVA), beni che, per tipologia e/o quantità, non si prestano ad un utilizzo meramente occasionale.
Se da un lato si è portati a percepire tali nuove forme di controllo come meno invasive rispetto a quelle tradizionali, il che giustificherebbe un affievolimento delle garanzie, dall’altro lato occorre considerare che sussistono comunque rischi di lesione di diritti costituzionalmente garantiti. Il pensiero corre senz’altro al diritto di difesa (art. 24 Cost.), ma anche al diritto alla protezione dei dati personali, che riceve oggi copertura costituzionale (seppur indirettamente)[145].
Nelle “verifiche digitali”, se vengono applicate le più moderne tecniche di machine learning, si pone il problema dell’interpretabilità dei risultati, anzitutto da parte del funzionario chiamato a motivare il rilievo e poi da parte del contribuente. Come si è visto, infatti, i metodi stocastici di autoapprendimento ricavano correlazioni – e non nessi causali – dopo un addestramento statistico su grandi quantità di dati archiviati in precedenza. Inoltre, modelli ritenuti performanti, come le random forests o le reti neurali, pur consentendo all’agente umano di ipotizzare la relazione tra i dati immessi e gli esiti, non permettono di ricostruire il percorso compiuto dalla macchina.
A ciò si aggiunga la tendenza degli operatori a fare eccessivo affidamento su quel risultato: specie in un contesto quale l’Amministrazione finanziaria, in cui il funzionario può essere chiamato a rispondere personalmente per danni erariali ingenti[146], potrebbe accadere che, a fronte di un rilievo di evasione o elusione risultante dall’analisi algoritmica, costui ritenga più prudente non discostarsene. Se un atto impositivo dovesse fondarsi su un simile risultato, senza una sufficiente ponderazione da parte del funzionario, si profilerebbe un vizio di motivazione che potrebbe comportarne l’invalidità. Una motivazione dell’atto appiattita su risultanze algoritmiche poco comprensibili, essendo solo apparente, non porrebbe il contribuente in condizioni di esercitare agevolmente il diritto di difesa. Tanto il difensore, quanto il giudice dovrebbero avvalersi di consulenti statistici o informatici per provare a comprenderne il contenuto[147].
Inoltre, nei controlli digitali, sono particolarmente avvertite le esigenze di preservare la sicurezza informatica e la riservatezza dei dati e di consentire al contribuente una supervisione sul loro utilizzo. Tali esigenze si colgono in particolare pensando alla diffusione e alle potenzialità pervasive dei controlli digitali.
La profilazione eseguita dal nuovo strumento di analisi del rischio è ben più estesa di quelle già sperimentate con gli studi di settore e con gli ISA. Sul piano oggettivo, infatti, oltre all’utilizzo di dati estratti da molteplici database (tipico anche del “sistema ISA”), Ve.R.A. comporta anche l’elaborazione massiva dei dati bancari e finanziari dei contribuenti, seppur in forma aggregata. Sul piano soggettivo, essa può coinvolgere tutti i contribuenti e non solo professionisti o imprenditori[148]. Emerge così un’altra importante differenza fra accessi, verifiche e ispezioni tradizionali e quelli digitali: mentre per i primi lo Statuto dei diritti del contribuente impone che siano «effettuati sulla base di esigenze effettive di indagine e controllo sul luogo» (art. 1, comma 1), i secondi, specie in caso di profilazione, sono generalizzati per definizione[149]. Anche rispetto alle indagini finanziarie, che sono innescate da richieste mirate in rapporto alle effettive necessità di verifica, la prospettiva è ora capovolta.
Il diritto alla protezione dei dati personali pone dei limiti alle decisioni automatizzate e alle attività di profilazione che generalmente le precedono. Si è tuttavia osservato che a tali diritti è possibile derogare quando il loro esercizio possa arrecare «un pregiudizio effettivo e concreto […] agli interessi tutelati in materia tributaria e allo svolgimento delle attività di prevenzione e contrasto all’evasione fiscale»[150]. Le deroghe introdotte dal legislatore italiano, pur sulla scorta di una possibilità contemplata dal GDPR, riecheggiano la tradizionale recessività della riservatezza nella giurisprudenza domestica in favore dell’interesse fiscale[151].
Neppure la proposta di Regolamento europeo sull’intelligenza artificiale[152] soccorre in tal senso. Nell’attuale formulazione, essa gradua le garanzie per gli utenti dei sistemi intelligenti a seconda del grado di rischio rappresentato dalle diverse tecniche per i diritti fondamentali e la sicurezza. Mentre per i sistemi a basso rischio sono imposti obblighi di trasparenza molto limitati (quale quello di informativa agli utenti), per i sistemi ad alto rischio la proposta fissa «requisiti di qualità elevata dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, precisione e robustezza»[153]. Duole però constatare che i «sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere considerati sistemi di IA ad alto rischio»[154].
Una prima tutela per il contribuente nell’automazione del procedimento tributario si può, invece, ricavare in via interpretativa dai principi affermati dai giudici amministrativi rispetto a decisioni automatizzate di diversa natura. Il riferimento è alle sentenze del Consiglio di Stato che hanno ripetutamente censurato la compilazione automatizzata delle graduatorie di assegnazione dei docenti alle sedi di servizio, per la scarsa intellegibilità della motivazione e l’irragionevolezza degli esiti[155]. Le pronunce, pur dando conto degli indubbi vantaggi dell’automazione dei procedimenti decisionali attraverso l’impiego di algoritmi, invocano il rispetto dei principi i) di trasparenza dell’algoritmo (che consenta l’intellegibilità della motivazione e, dunque, la sindacabilità in sede giurisdizionale della decisione); ii) di non esclusività della decisione algoritmica e iii) di non discriminazione. Ciò, sul presupposto per cui «la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se ciò avviene in via esclusiva» e «la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica” […] sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice»[156].
Il principio secondo cui la “formula tecnica” deve poter essere tradotta in regola giuridica rileva anche per la legittimità dell’atto impositivo tributario almeno sotto due distinti profili.
In primo luogo, sotto il profilo del rispetto della riserva di legge sulle prestazioni imposte (art. 23 Cost.): se vi può essere discrezionalità nella selezione dei contribuenti da sottoporre a controllo, nella scelta dei mezzi istruttori e del metodo di accertamento[157], il contenuto dell’avviso è invece vincolato, dovendo riflettere la disciplina sostanziale del tributo. Un algoritmo con una formula non conoscibile (almeno nelle sue istruzioni essenziali) non consente di verificare se tale formula sia conforme al dettato legislativo. In altri termini, anche nei sistemi di autoapprendimento (in cui la programmazione è minima) occorre controllare che il software, in ogni fase del suo funzionamento, rimanga aderente alle disposizioni sostanziali, operazione che richiede competenze non solo informatiche ma anche giuridiche.
In secondo luogo, la comprensibilità in termini giuridici della formula tecnica rileva sotto il profilo, già evidenziato, dell’obbligo di motivazione degli atti dell’A.F., presupposto essenziale per l’esercizio del diritto di difesa.
Ciò vale a maggior ragione se a fondamento dell’atto è posta una presunzione (semplice o semplicissima[158]) basata su una formula tecnica determinata in autoapprendimento. Non pongono particolari problemi le presunzioni innestate su algoritmi deterministici, poiché essi replicano nessi causali in base ai quali la macchina è stata programmata a priori. Come noto, tale modello di conoscenza collega premesse e conclusioni attraverso una massima d’esperienza immessa dai programmatori e, dunque, quest’ultima rimane percettibile e comprensibile nonostante l’automazione del ragionamento. Più insidiose, ai fini dell’intellegibilità della motivazione, appaiono le presunzioni create da algoritmi di autoapprendimento, ossia algoritmi che, osservate varie coppie di input-output fornite dai programmatori, sono in grado ricavare le regole che legano tali dati, per poi generalizzarle. Si è detto, infatti, che tali regole altro non sono che mere correlazioni basate sull’osservazione di esempi. La presunzione si innesta, quindi, su una logica di tipo induttivo-probabilistico. Poiché tali regole sono però ricavate in autonomia dalla macchina, queste risultano comprensibili solo se il modello di apprendimento utilizzato è sufficientemente interpretabile. Solo così il contribuente è posto in condizione di difendersi nel merito[159], dimostrando, ad esempio, che i fatti-indice rilevati dal sistema sono inesatti o irrilevanti[160], che la regola tecnica è priva di forza presuntiva o che le conclusioni cui giunge sono qualitativamente o quantitativamente errate.
Se gli esiti dell’analisi algoritmica posti a base di un avviso di accertamento non fossero pienamente comprensibili e conformi al dettato legislativo, questo, in giudizio, dovrebbe essere annullato. Del resto, come conferma la regola di distribuzione dell’onere della prova introdotta in sede di riforma del processo tributario[161], esso grava, di norma, sull’A.F. e dev’essere assolto attraverso un bagaglio di prove non contraddittorio e sufficiente a dimostrare, in modo circostanziato, puntuale e coerente con la normativa tributaria sostanziale, le ragioni oggettive su cui si fonda la pretesa.
5. Notazioni conclusive - Le applicazioni algoritmiche basate sull’analisi di vasti dataset sono le più varie e potrebbero trovare impiego in diverse fasi di attuazione del tributo[162]. Oltre alle tecniche di analisi del rischio fiscale esaminate in questa sede, l’A.F. ben potrebbe avvalersi di algoritmi predittivi per lo studio dei precedenti, al fine di rendere un parere in sede di interpello o per prevedere l’esito di un contenzioso e attuare strategie deflattive. Inoltre, con una profilazione su vasta scala dei contribuenti accertati, si potrebbero prevedere e cogliere tempestivamente situazioni di “fondato pericolo per la riscossione” che giustifichino l’iscrizione nei ruoli straordinari o l’adozione di altre misure a garanzia del credito erariale.
In linea con la giurisprudenza del Consiglio di Stato in tema di decisioni amministrative automatizzate, anche nella materia fiscale si impone la necessità di valutare l’adozione di ogni nuovo strumento che possa aumentare l’efficienza dell’amministrazione, in ossequio al principio di buon andamento. In questo senso, purché rispettose di alcune garanzie per i contribuenti, possono essere accolte positivamente soluzioni di intelligenza artificiale che consentano l’incrocio di una mole di dati altrimenti ingestibile e sollevino i funzionari da operazioni meramente ripetitive.
Anzitutto, la raccolta e l’incrocio di tali dati non deve interferire più dello stretto necessario con il diritto al rispetto della vita privata e familiare.
In termini quantitativi, dunque, occorre evitare attività di profilazione massiva che, slegate da effettive esigenze di verifica, comportino fenomeni di “pesca a strascico”. Del resto, uno degli obiettivi della normativa vigente in tema di protezione dei dati personali è proprio quello di prevenire – con una certa omogeneità in tutto il territorio europeo – «l’indiscriminata e generalizzata raccolta di dati personali», che «accoppiata all’uso delle moderne tecnologie digitali da parte delle autorità pubbliche può dare origine a un “panopticom digitale”, cioè all’affermazione di un potere pubblico che vede chiunque senza essere visto»[163].
Sotto il profilo qualitativo, sin dalla fase di progettazione delle analisi, è opportuno escludere dai dataset a disposizione delle amministrazioni fiscali dati prevedibilmente irrilevanti per le attività di contrasto all’evasione e all’elusione fiscale. Le amministrazioni trattano anche dati c.d. “sensibili” o “supersensibili” – come quelli desumibili da alcune detrazioni fiscali – per i quali occorre particolare cautela nelle attività di profilazione.
Come ben evidenziato dal Garante per la privacy nei pareri sul nuovo strumento di analisi del rischio fiscale, il principio di proporzionalità e il particolare rilievo che l’ordinamento attribuisce a valori quali la tutela della salute inducono ad interrogarsi attentamente sull’opportunità di far «assurgere le spese sanitarie a parametro per valutare la capacità contributiva dei contribuenti»[164]. Per altro verso, indipendentemente dalla natura sensibile o meno dei dati, nel presente contributo si è evidenziato che l’inclusione nei dataset di dati personali irrilevanti può accrescere il rischio di fenomeni di discriminazione algoritmica, come dimostra l’esperienza estera citata e come segnala anche il Consiglio di Stato[165]. Se le tecniche di advanced analytics non restano confinate ad attività meramente preparatorie, ma giungono a determinare una pretesa impositiva, devono essere garantiti il diritto all’intervento umano nel procedimento decisionale e rigorosi standard di motivazione.
Nella sostanza, come si è tentato di dimostrare, anche il nuovo applicativo Ve.R.A. potrà determinare un recupero d’imposta “automatizzato”, specie se verrà accolta la proposta di rendere le c.d. “lettere di compliance” titolo per l’iscrizione a ruolo delle somme in esse indicate.
Se tale prospettiva non dovesse avverarsi, sussisterebbe comunque il rischio che i funzionari degli uffici periferici, pur potendo integrare le risultanze dell’analisi algoritmica, ritengano più prudente confermarle, vanificando la garanzia di intervento umano nel procedimento decisionale[166].
In luogo della deroga ai diritti sanciti dal GDPR cui stiamo assistendo, sarebbe invece auspicabile la codificazione di alcuni principi che possano governare il rapporto Fisco-contribuente nell’era digitale. Oltre all’A.F., ad esempio, anche il contribuente dovrebbe poter beneficiare[167] di innovazioni quali l’interoperabilità delle banche dati pubbliche, per una più snella gestione degli adempimenti fiscali e, più in generale, dei propri dati e affari.
Inoltre, nel dibattito pubblico[168], meriterebbe più attenzione il tema dei rischi posti dalle diverse tecniche di intelligenza artificiale già in uso nelle amministrazioni fiscali. Si è dato atto del trade-off, evidenziato dagli esperti, fra l’accuratezza delle previsioni e l’interpretabilità del modello: i metodi deterministici, impostati su una logica causale, generano risultati comprensibili, ma non sempre adatti a rappresentare la complessità delle situazioni reali, mentre i modelli probabilistici tendono ad essere più accurati ma meno intellegibili. Fra gli stessi modelli probabilistici alcuni più di altri sono soggetti all’effetto “black box”[169]. Allo stato attuale della tecnica, l’A.F. si trova quindi a dover scegliere se privilegiare accuratezza o l’intellegibilità dei risultati. Tale scelta – a nostro avviso – non può che ricadere sulla comprensibilità dei risultati, con parziale sacrificio della performance. Infatti, l’obiettivo di Ve.R.A. non può essere solo quello di formare liste selettive, ma anche quello di fornire agli uffici dell’accertamento una base di partenza intellegibile, verificabile e ampliabile a posteriori. Altrettanto può dirsi per la promozione dell’adempimento spontaneo con le lettere di compliance, che, solo indicando analiticamente gli indici di rischio e le anomalie riscontrate dal sistema algoritmico, mettono i contribuenti nella condizione di formulare osservazioni difensive o ravvedersi.
Infine, possono riepilogarsi altri auspici formulati rispetto a tale metodo di analisi del rischio fiscale.
Nel passaggio dalla fase di selezione dei contribuenti a quella accertativa, occorrerebbe circoscrivere rigorosamente il peso probatorio delle risultanze dell’analisi effettuata con strumenti di intelligenza artificiale. Queste non possono che essere un punto di partenza, da avvalorare – anche in contraddittorio[170] – con altri elementi emersi dall’istruttoria. Abbiamo poi invocato la massima cautela nell’attribuire una valenza presuntiva ai meccanismi algoritmici, poiché questi devono riflettere regole d’inferenza logica traducibili in un lessico comprensibile al contribuente, al suo difensore e al giudice, senza dover ricorrere a consulenti informatici o statistici.
Del resto, nel nostro ordinamento si rinvengono già efficaci “anticorpi” contro automatismi accertativi di natura statistica. Possiamo, infatti, fare tesoro dell’esperienza in tema di studi di settore, ove si è consolidata la massima secondo cui, «se appare ammissibile la predisposizione di mezzi di contrasto all’evasione fiscale che rendano più agile […] l’azione dell’Ufficio», onde evitare «una illegittima compressione dei diritti emergenti dagli artt. 3, 24 e 53 Cost.», «il limite della utilizzabilità degli stessi sta, da un lato, nella impossibilità di far conseguire, alla eventuale incongruenza tra standard e ricavi dichiarati, un automatismo dell’accertamento, che eluderebbe lo scopo precipuo dell’attività accertativa che è quello di giungere alla determinazione del reddito effettivo del contribuente in coerenza con il principio di cui all’art. 53 Cost.; dall’altro, nel riconoscimento della partecipazione del contribuente alla fase di formazione dell’atto di accertamento mediante un contraddittorio preventivo, che consente di adeguare il risultato dello standard alla concreta realtà economica del destinatario dell’accertamento, concedendo a quest’ultimo, nella eventuale fase processuale, la più ampia facoltà di prova (anche per presunzioni), che sarà, unitamente agli elementi forniti dall’Ufficio, liberamente valutata dal giudice adito»[171].
1OCSE, “Advanced Analytics for Better Tax Administration. Putting Data to Work”, OECD Publishing, Parigi, 2016, p. 17.
Chiudi nota
2B. Alarie-A. Niblett-A.H. Yoon, “Using Machine Learning to Predict Outcomes in Tax Law”, in Canadian Business L. J., 2016, p. 232. Gli autori, che hanno collaborato alla realizzazione del software di intelligenza artificiale “Blue J Legal”, motivano la scelta del settore fiscale per la loro sperimentazione sulla base del fatto che è ricco di questioni di incerta applicazione, sulle quali si registra giurisprudenza copiosa e spesso contrastante.
Chiudi nota
3
L.T. McCarty, “Reflections on “Taxman”: an Experiment in Artificial Intelligence and Legal Reasoning”, in Harvard L. Rev., 1977, p. 842 ss.; B. Kuźniacki, “The Artificial Intelligence Tax Treaty Assistant: Decoding the Principal Purpose Test”, in Bull. Int’l Tax., 2018, p. 527. All’assunto per cui il “tecnicismo” fiscale valorizzerebbe il ricorso a sistemi di AI, replica però condivisibilmente S. Dorigo che «anche le norme sul reddito di impresa non si risolvono nella maggior parte dei casi nella mera attivazione di rigide formule statistico-matematiche, ma richiedono un quid pluris di tipo interpretativo» [“Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi “intelligenti” tra funzione amministrativa e attività giurisdizionale”, in Id. (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pacini, Pisa, 2020, pp. 122-123, e in Rass. trib., 2019, p. 730]. Si veda altresì A. Giovannini, Sul diritto, sul metodo e sui princìpi, in Id., Per princìpi, Giappichelli, Torino, 2022, p. 15, sull’importanza di un’attività interpretativa che non si limiti ai “significanti”, all’«esegesi spicciola [per cui] sarebbe sufficiente una macchina dotata di intelligenza artificiale» e che si spinga invece a cogliere i “significati”, ossia i valori «incorporati nei princìpi oggetto d’interpretazione o originati dal diritto stesso».
Con riguardo allo stato della legislazione fiscale italiana, R. Cordeiro Guerra rileva che «il nostro paese rischia di costituire un campo preferenziale di espansione dell’Intelligenza artificiale», mentre «non c’è dubbio che tanto più il corpus normativo è stabile, ordinato, e connotato da un ragionevole grado di organicità e certezza, meno si avvertirà l’esigenza di ricorrere all’intelligenza artificiale per facilitarne tempi e modi di applicazione» (“L’intelligenza artificiale nel prisma del diritto tributario”, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, cit., p. 94).
Chiudi nota
4“Piano nazionale di ripresa e resilienza”, approvato con Decisione di esecuzione del Consiglio dell’Unione europea dell’8 luglio 2021, pp. 77-78. Questa linea programmatica è poi sviluppata nell’“Atto di indirizzo per il conseguimento degli obiettivi di politica fiscale per gli anni 2022-2024” (MEF, 7 febbraio 2022) e trova riscontro nella prassi OCSE (OCSE, “Advanced Analytics for Better Tax Administration. Putting Data to Work”, cit.; Id., “Technologies for Better Tax Administration. A Practical Guide for Revenue Bodies”, OECD Publishing, Parigi, 2016).
Chiudi nota
5MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, allegato della proposta di decisione di esecuzione del Consiglio relativa all’approvazione della valutazione del Piano per la ripresa e la resilienza dell’Italia, 20 dicembre 2021, pp. 29 e 57.
Chiudi nota
6In tema cfr. compiutamente E. Alpaydin, Introduction to Machine Learning, The MIT Press, Cambridge-Londra, 2020, p. 15.
Chiudi nota
7Convertito con Legge 3 dicembre 2021 n. 205 con modificazioni. In tema di interoperabilità delle banche dati, cfr., senza pretesa di esaustività, G. Buttarelli, “L’interoperabilità dei dati nella Pubblica Amministrazione”, in V. Bontempi (a cura di), Lo Stato digitale nel Piano nazionale di ripresa e resilienza, Roma Tre-Press, Roma, 2022, p. 140 ss. e, nel medesimo volume, G. Sgueo, “I servizi pubblici digitali”, spec. pp. 122-123.
Chiudi nota
8Almeno per alcune delle disposizioni adottate in materia di protezione dei dati personali, non pare, tuttavia, che si versi in un caso straordinario di necessità e di urgenza che legittima il ricorso al decreto-legge ex art. 77 Cost. Riteniamo, invece, che la modifica dei delicati equilibri tra interesse pubblico e riservatezza nel trattamento dei dati da parte delle pubbliche amministrazioni avrebbe tratto giovamento da un più ampio dibattito parlamentare. È utile, infatti, rammentare la ratio dell’assetto mantenuto fino a tale modifica con le parole di S. Rodotà (Intervista su privacy e libertà, a cura di P. Conti, Laterza, Bari, 2005, p. 87): «In generale, il privato deve negoziare con il cittadino, informarlo, chiedere il suo consenso per il trattamento dei dati che lo riguardano. La pubblica amministrazione, invece, può raccoglierli solo nei casi espressamente previsti dalla legge. Questo per mettere al riparo il singolo cittadino dalla pressione che i soggetti pubblici potrebbero esercitare: c’è un’evidente disparità di potere che rende squilibrato il rapporto. Un Comune, ad esempio, avrebbe potuto chiedere molti dati personali, al di là di quelli necessari per una specifica pratica, a chi ha chiesto una licenza commerciale o l’autorizzazione a fare alcuni lavori. Quale sarebbe stato il potere contrattuale del cittadino di fronte a questa richiesta?». Si è inoltre affermato autorevolmente che «senza il rispetto della privacy non esisterebbe nessun ecosistema pubblico e che la gestione e il trattamento dei dati personali non dipendono dal libero arbitrio degli utenti, ma dalle azioni che promuovono la sorveglianza digitale e i sistemi permanenti di manipolazione del comportamento umano» (T. Rosembuj, Intelligenza artificiale e tassazione, el Fisco, Barcellona, 2018, p. 39).
Chiudi nota
10La disposizione riguarda i casi di «diffusione e […] comunicazione di dati personali, trattati per l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri, a soggetti che intendono trattarli per altre finalità». Già rispetto alla previgente formulazione, in dottrina veniva evidenziata la dubbia portata della locuzione “per altre finalità”, poiché non è chiaro se si riferisca a soggetti che operano per scopi diversi dalla prima amministrazione ma pur sempre di pubblico interesse o – come si desume dal dato testuale – a soggetti che operano per finalità diverse dall’interesse pubblico o dall’esercizio di pubblici poteri (F. Cardarelli, “subart. 2-ter, D. lgs. n. 196/2003”, in R. D’Orazio-G. Finocchiaro-O. Pollicino-G. Resta G. (a cura di), Codice dellaprivacy edata protection, Giuffrè, Milano, 2021, p. 1023). Il D.L. n. 139/2021 non è intervenuto a chiarire tale questione, divenuta ancor più delicata poiché esso consente la diffusione di dati personali o la loro comunicazione ad un soggetto che agisce per finalità diverse da quelle della PA mittente anche in presenza di un semplice atto amministrativo generale o, in mancanza di qualsivoglia base giuridica, purché ne sia data notizia al Garante almeno dieci giorni prima.
Chiudi nota
11Oggi le pubbliche amministrazioni, compresa quella finanziaria, sono libere di trattare i dati degli amministrati e di comunicarli ad altre PA anche in assenza di una specifica base giuridica o del previo assenso del Garante per la protezione dei dati personali, limitatamente alla comunicazione fra titolari che effettuano trattamenti diversi da quelli di dati sensibili o relativi a condanne penali per taluni reati, per l’esecuzione di un compito di interesse pubblico (nuova formulazione dell’art. 2-ter, comma secondo, D. lgs. n. 196/2003).
Chiudi nota
12È il fenomeno noto come “automation bias”, per cui l’«affidarsi eccessivamente a certi supporti decisionali computazionali – e il fidarsi di loro anche quando si sbagliano – [può] peggiorare singole nostre decisioni, soprattutto relativamente ai casi più complessi e per cui non tutti gli aspetti rilevanti per la decisione possano essere resi disponibili alla AI in termini di rappresentazioni testuali, simboliche o numeriche, cioè di “dati”». Così, testualmente, Cabitza F., “Deus in machina? L’uso umano delle nuove macchine, tra dipendenza e responsabilità”, in Floridi L.-Cabitza F., Intelligenza artificiale. L’uso delle nuove macchine, Bompiani, Firenze-Milano, 2021, § 6. Cfr., altresì, Th. Casadei-S. Pietropaoli, "Intelligenza artificiale: fine o confine del diritto?", in Id. (a cura di), Diritto e tecnologie informatiche, Cedam, Milano, 2021, pp. 224-225, ove gli Autori osservano che alla base del "diritto computazionale" vi è «un approccio che sul piano teorico si avvicina alle tesi più estreme del formalismo giuridico e che rilancia il paradigma della certezza del diritto».
Chiudi nota
13
G, Avanzini, Decisioni amministrative e algoritmi informatici, Editoriale Scientifica, Napoli, 2019, p. 15 e nota 24, annovera fra le ragioni della diffusione dell’analisi algoritmica l’esigenza di calcolabilità giuridica, teorizzata in origine da Leibniz (che, nel suo “De arte combinatoria”, propose l’aritmetizzazione della logica che avrebbe reso il ragionamento comprensibile anche ad una macchina) e sviluppata solo con l’avvento dell’informatica nel secolo scorso [voce “Leibniz”, in Enc. della Matematica Treccani, 2013, disponibile al collegamento https://www.treccani.it/enciclopedia/leibniz_%28Enciclopedia-della-Matematica%29/].
Fondamentale è l’apporto di Max Weber – che tentiamo di accennare con le parole di due autorevoli interpreti, Pietro Rossi e Natalino Irti – sul «“diritto razionale, cioè un diritto calcolabile”, che risponde all’esigenza dell’impresa capitalistica, la quale “deve poter fare assegnamento, per agire economicamente in modo razionale, su una giustizia e su un’amministrazione sulla quale si possa far conto”» (P. Rossi, “Razionalismo occidentale e calcolabilità giuridica”, in A. Carleo (a cura di), Calcolabilità giuridica, Il Mulino, Bologna, 2017, p. 29, corsivo dell’Autore). «Il calcolo è lo strumento di precisione della razionalità economica e del capitalismo occidentale. Il calcolo esclude arbitrio, capriccio, mutevolezza del volere; ed esige continuità, stabilità, prevedibilità. Imprenditore è per eccellenza colui che calcola […] I rapporti giuridici appartengono al calcolo razionale dell’imprenditore. Semplificando le analisi di Weber […] due sono le fondamentali categorie di rapporti giuridici, rientranti nel calcolo dell’imprenditore. [P]er ambedue le grandi categorie di rapporti giuridici (rapporti dei privati con l’apparato burocratico, rapporti fra soggetti che si scambiano beni), il requisito sta nella calcolabilità della decisione giudiziale. La sentenza, con cui il terzo definisce il conflitto […] in base a una norma data, è una decisione calcolabile.” […] Ma, affinché un diritto “si possa calcolare al pari di una macchina” (sono parole di Weber), è indispensabile che esso sia stabile. Un diritto, esposto a mutamenti continui, dove le norme nascano e muoiano in un vortice incessante, non permette alcun calcolo. Nessuno sarebbe in grado di prevedere la decisione del giudice, e dunque di inserirla nel disegno di una condotta razionale. La calcolabilità è garantita soltanto da fattispecie astratte di norme stabili» (N. Irti, Un diritto incalcolabile, Giappichelli, Torino, 2016, p. 33 ss., corsivo dell’Autore).
Si consultino anche gli studi di M. Versiglioni (“Algoritmo per creare o applicare il diritto? Rischi di una giustizia robotizzata”, in Fiscooggi, 14 febbraio 2020 (disponibile al collegamento https://www.fiscooggi.it/rubrica/analisi-e-commenti/articolo/algoritmo-creare-o-applicare-diritto-rischi-giustizia) e Diritto matematico-mv, Pacini, Pisa, 2020, passim), che propone, per la creazione della legge e per la sua applicazione, un «algoritmo ‘logico-naturale’ utilizzabile come vincolo di metodo della decisione sul caso concreto», denominato ‘dirittomatematico’ (p. 235). La proposta si pone come alternativa alle dilaganti applicazioni algoritmiche basate sulla ricerca di correlazioni fra i c.d. big data, che – come evidenzia l’autore – possono indurre un senso di smarrimento, perché, seppur «potenti ed efficaci […] rimarrebbero, però, imperscrutabili e irreversibili, in specie se fatte di medie, clusters, regressioni lineari e altre analisi massive di tipo iterativo incompatibili con le logiche di verità di giustizia del nostro diritto» (p. 233). ‘dirittomatematico’ è un algoritmo «estratto dal diritto che c’è-mv» (corsivo dell’Autore): l’operatore del diritto dovrebbe, in estrema sintesi, «distinguish the two phases into which, in the abstract, the legal reasoning must ontologically be divided: the first to identify the type of mathematical code present in the legal provision; the second to adopt (on the basis of a ‘mathematical combining’) the kind of reasoning (or forma mentis or ratio decidendi) corresponding to that type of mathematical code. The rules and the principles regarding interpretation and proof, which are embodied in the legal systems, follow (and do not precede) these two phases» (p. 197).
Chiudi nota
14Nel diritto amministrativo, sono già vaste la produzione dottrinale e la casistica giurisprudenziale sulle opportunità ed i rischi dell’automazione dei procedimenti e delle decisioni amministrative. Senza pretesa di esaustività, si vedano alcune pronunce del Consiglio di Stato, che saranno esaminate infra (Cons. Stato, Sez. VI, 8 aprile 2019, n. 2270; Id., 13 dicembre 2019, n. 8472-8473-8474; Id., 4 febbraio 2020, n. 881), e, in dottrina, A. Masucci, voce “Atto amministrativo informatico”, in Enc. dir., vol. I, agg., 1997, p. 221 ss.; L. Viola, “L’intelligenza artificiale nel procedimento e nel processo amministrativo: lo stato dell’arte”, in federalismi.it, 7 novembre 2018; G. Avanzini, Decisioni amministrative e algoritmi informatici, cit., passim; A. Orofino-G. Gallone, “L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione”, in Giur. it., 2020, p. 1738 ss.; D.U. Galetta, “Algoritmi, procedimento amministrativo e garanzie: brevi riflessioni, anche alla luce degli ultimi arresti giurisprudenziali in materia”,in Riv. it. dir. pubbl. com., 2020, p. 501 ss.; P. Otranto, “Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità”, in federalismi.it, 10 marzo 2021; G. Lo Sapio, “La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione”, in federalismi.it, 30 giugno 2021; E. Chiti-B. Marchetti-N. Rangone, “L’impiego di sistemi di intelligenza artificiale nelle pubbliche amministrazioni italiane: prove generali”, in A. Pajno-F. Donati F.-A. Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, vol. II, Il Mulino, Bologna, 2022, p. 43 ss., e, nella stessa opera, G. Avanzini, “Intelligenza artificiale, machine learning e istruttoria procedimentale: vantaggi, limiti ed esigenze di una specifica data governance”, vol. II, p. 75 ss. e E. Longo, “I processi decisionali automatizzati e il diritto alla spiegazione”, vol. II, p. 349 ss.
Chiudi nota
15Sulla tutela multilivello dei diritti fondamentali, cfr. A. Cardone, voce “Diritti fondamentali (Tutela multilivello dei)”, in Enc. dir. - Annali, IV, 2011, p. 335 ss. e l’ampia bibliografia ivi indicata. Con specifico riferimento all’imposizione tributaria, senza pretesa di esaustività, di recente, A. Carinci, “Il sistema multilivello dei diritti del contribuente, tra pluralità di fonti e molteplicità dei modelli di tutela”, in A. Carinci-T. Tassani, I diritti del contribuente. Principi, tutele e modelli di difesa, Giuffrè, Milano, 2022, p. 3 ss.; A. Marcheselli, Accertamenti tributari, Giuffrè, Milano, 2022, p. 3 ss. (con riguardo ai princìpi multilivello del giusto procedimento tributario).
Chiudi nota
16Nel prosieguo utilizzeremo come sinonimi i termini “riservatezza”, “privacy” e “protezione dei dati personali”, ma preme sin d’ora evidenziare la diversa portata dei primi due rispetto al terzo, testimoniata anche dal diverso utilizzo che ne fanno le Carte sovranazionali dei diritti ed il legislatore europeo: «Nel linguaggio internazionale l’espressione più usata è ormai dataprotection, più che privacy, proprio per sottolineare che non si tratta soltanto di restare chiusi nel proprio mondo privato, al riparo da sguardi indiscreti, ma anche di potersi proiettare liberamente nel mondo attraverso le proprie informazioni, mantenendo però sempre il controllo sul modo in cui queste circolano e vengono utilizzate da altri» (S. Rodotà, Intervista su privacy e libertà, cit., p. 19. Cfr. più ampiamente infra, § 2). In tema, si vedano altresì J. Kokott-C. Sobotta, “The distinction between privacy and data protection in the jurisprudence of the CJEU and the ECtHR”, in Int’l Data Privacy L., 2013, p. 222 ss.; N. Miniscalco, “La personalità in rete: protezione dei dati personali, identità digitale e diritto all’oblio”, in Th. Casadei-S. Pietropaoli (a cura di), Diritto e tecnologie informatiche, Cedam, Milano, 2021, p. 32 ss.
Chiudi nota
17La vicenda è compiutamente ricostruita da A. Santoro, “Nuove frontiere per l’efficienza dell’amministrazione fiscale: tra analisi del rischio e problemi di privacy”, in G. Arachi-M. Baldini, La finanza pubblica italiana. Rapporto 2019, Il Mulino, 2019, Bologna, p. 66 ss.
Chiudi nota
21G. Ragucci, “L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”?”, in Riv. tel. dir. trib., 4 settembre 2019.
Chiudi nota
22Art. 37, comma 1, D.P.R. n. 600/1973, con il commento di A. Di Pietro, in F. Moschetti (a cura di), Commentario breve alle leggi tributarie, vol. II, Cedam, Padova, 2011, pp. 216-218. Si può parlare, in proposito, di “principio di informalità” dell’istruzione primaria ossia extra o preprocessuale (così, F. Tesauro, “Appunti sulle procedure di accertamento dei redditi di impresa", in Impresa, ambiente e pubblica amministrazione, 1978, p. 462, ora anche in F. Fichera-M.C. Fregni-N. Sartori (a cura di), Scritti scelti di diritto tributario, vol. I, Giappichelli, Torino, 2022, p. 72). In giurisprudenza, di recente, Cass., Sez. trib., ord., 30 luglio 2021, n. 21846. Ciò vale non solo per l’accertamento induttivo extracontabile, che consente la determinazione del reddito d’impresa o di lavoro autonomo «sulla base dei dati e delle notizie comunque raccolti o venuti a […] conoscenza» degli uffici e/o di presunzioni “semplicissime” (art. 39, comma 2, D.P.R. N. 600/1973), ma anche per l’accertamento analitico, poiché l’art. 38 rinvia alle fonti ex art. 37 cit. Come noto l’art. 38 dispone che l’incompletezza, la falsità o l’inesattezza dei dati indicati nella dichiarazione possano essere desunte dalla dichiarazione stessa, dal confronto con le dichiarazioni dei periodi precedenti e dai dati e dalle notizie ex art. 37, ivi compresi quelli di cui gli uffici «siano comunque in possesso». Le presunzioni ammesse nei metodi di accertamento analitici sono tutt’al più quelle semplici, purché gravi, precise e concordanti. Sulla scorta di tali disposizioni, «L’Agenzia delle entrate […] può porre a base degli accertamenti ogni elemento probatorio, di cui non sia impedita l’utilizzabilità da disposizioni espresse di legge o dalla violazione di diritti del contribuente costituzionalmente garantiti», incluse le «notizie tratte dalla stampa o da Internet (Facebook, Twitter, Instagram, ecc.)» (F. Tesauro, Istituzioni di diritto tributario. Parte generale, XIV ed., agg. a cura di M.C. Fregni-N. Sartori-A. Turchi, Utet, Milano, 2020, p. 190. Cfr.), in tal senso, la circolare dell’Agenzia delle entrate n. 16/E/2016, con specifico riferimento alla possibilità di attingere non solo alle banche dati interne, ma anche a “fonti aperte”, e, fra le altre, Cass., Sez. trib., ord., 5 luglio 2021, n. 18901, ove si legge che «[s]econdo una oramai costante giurisprudenza di questa Corte, è legittima l’utilizzazione in sede di accertamento tributario di qualsiasi elemento, valutabile quale elemento indiziario, benché sia stato acquisito in modo irrituale – ad eccezione di quelli la cui inutilizzabilità discenda da specifica previsione di legge e salvi i casi in cui venga in considerazione la tutela di diritti fondamentali di rango costituzionale […]». Non si ignora il concreto rischio di interferenze fra tali “clausole aperte” e le riserve di legge sulle prestazioni imposte (art. 23 Cost.) e sulle libertà personali (artt. 13-14-15 Cost.), ma, alla luce dell’ormai consolidato quadro giurisprudenziale, pare doversi confermare l’esistenza di una «[…] zona grigia dell’attività istruttoria non proibita ma neanche prevista […]» collocata «tra i due estremi costituiti rispettivamente dall’attività posta in essere in violazione di legge e dall’attività sicuramente legittima in quanto espressamente prevista» [L. Salvini, La partecipazione del privato all’accertamento (nelle imposte sui redditi e nell’IVA), Cedam, Padova, 1990, p. 192]. Cfr., altresì, compiutamente le posizioni espresse da R. Schiavolin, voce “Poteri istruttori dell'Amministrazione finanziaria”, in Dig. comm., vol. XI, Utet, Torino, 1995, § 7; S. Muleo, Contributo allo studio del sistema probatorio nel procedimento di accertamento, Giappichelli, Torino, 2000, p. 148 ss.; A. Viotto, I poteri di indagine dell’amministrazione finanziaria, Giuffrè, Milano, 2002, p. 415 ss.; G. Vanz, I poteri conoscitivi e di controllo dell'amministrazione finanziaria, Cedam, Padova, 2012, p. 333 ss.; A. Marcheselli, Accertamenti tributari, Giuffrè, Milano, 2022, p. 146 ss.
Chiudi nota
23Corte dei conti, Sez. riun. in sede di controllo, Relazione sul rendiconto generale dello Stato 2021, 24 giugno 2022, pp. 13-17.
Chiudi nota
24D.E. Knuth, The Art of Computer Programming: Fundamental Algorithms, vol. I, Addison Wesley Longman, Reading, 1997, p. 6, che, rievocate le principali ricostruzioni storiche sui diversi significati assunti della parola “algoritmo” nel corso dei secoli, richiama proprio l’esempio della ricetta, osservando però che ad essa manca il carattere della precisione, a causa della presenza di istruzioni indeterminate.
Chiudi nota
25Traduzione non ufficiale di D.E. Knuth, The Art of Computer Programming: Fundamental Algorithms, cit., pp. 4-6, che specifica che l’algoritmo si compone di dati noti (input) che si pongono in una specifica relazione con i risultati (output), grazie ad un set di regole che deve avere i caratteri della “finitezza” (deve terminare in un numero finito di passaggi); della “precisione” (ogni passaggio dev’essere precisamente definito, solitamente con linguaggi di programmazione) e della “effettività” (deve poter essere eseguito esattamente e in un arco di tempo limitato).
Chiudi nota
26Tale sviluppo inizia a trovare un riconoscimento anche giuridico, nel nostro ordinamento, grazie all’elaborazione giurisprudenziale del Consiglio di Stato. Cfr. Cons. Stato, Sez. III, 25 novembre 2021, n. 7891, ove i giudici constatano che: «Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learning e crea un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico».
Chiudi nota
28A.M. Turing, “Computing machinery and intelligence”, in Mind, 1950, p. 433 ss. Traduzione italiana in V. Somenzi-R. Cordeschi (a cura di), La filosofia degli automi. Origini dell’intelligenza artificiale, I ed. 1986, Boringhieri, Torino, 1994, spec. p. 177 ss.
Chiudi nota
32Ciascuna istruzione che compone la sequenza prevede un solo possibile risultato e, dunque, complessivamente l’algoritmo “ripete” sempre lo stesso percorso. Pertanto, se si ripete più volte il calcolo immettendo uno stesso input, si ricaverà sempre lo stesso output.
Chiudi nota
33E. Alpaydin, Machine Learning, The MIT Press, Cambridge-Londra, 2016, p. 50 ss.
Chiudi nota
34L.T. McCarty, “Reflections on “Taxman”: an Experiment in Artificial Intelligence and Legal Reasoning”, cit., p. 837 ss. La “base di conoscenza” dei sistemi esperti applicati al diritto è costituita dalle disposizioni ridotte ad un linguaggio simbolico che può essere letto dal programma.
Chiudi nota
37A differenza di quanto accade con un algoritmo deterministico, se si ripete un calcolo partendo da un medesimo input, si possono raggiungere output di volta in volta diversi per via della diversa incidenza di fattori random.
Chiudi nota
38Z.H. Zhou, Machine Learning, Springer, Singapore, 2021, p. 310, ove l’Autore chiarisce che «Though most supervised learning problems are deterministic, there are also stochastic learning problems in which the label of an instance does not firmly belong to a single class but is decided by a posterior probability function conditioned on feature values».
Chiudi nota
39«Supervised learning refers to any machine learning process that learns a function from an input type to an output type using data comprising examples that have both input and output values» [voce “Supervised Learning”, in C. Sammut-G.I. Webb (a cura di), Encyclopedia of Machine Learning, Springer, Boston, 2011, p. 941].
Chiudi nota
40L’apprendimento supervisionato consente, per esempio, di ricavare il prezzo di un’auto usata partendo da alcune caratteristiche quali il chilometraggio e l’anno di produzione. Allenata su alcuni abbinamenti “attributi dell’auto-prezzo”, la macchina ne coglierà la correlazione che potrà poi estendere (generalizzare) alle successive auto usate che le saranno sottoposte: «The basic assumption we make here (and it is this assumption that makes learning possible) is that similar cars have similar prices, where similarity is measured in terms of the input attributes we choose to use. As the values of these attributes change slowly […] price is also expected to change slowly. There is smoothness in the output, and that is what makes generalization possible. […] Machine learning, and prediction, is possible because the world has regularities. Things in the world change smoothly. […] Most of our sensory systems make use of this smoothness; what we call visual illusions, such as the Kanizsa triangle, are due to the smoothness assumptions of our sensory organs and brain» (E. Alpaydin, Machine Learning, cit., pp. 40-42).
Chiudi nota
41Così, pressoché testualmente, voce "Albero", in Enc. della matematica Treccani, 2013. Cfr. altresì E. Alpaydin, Machine Learning, cit., p. 77-79, e Z.H. Zhou, Machine Learning, cit., p. 80 ss.
Chiudi nota
42Definiti come «inclinazione, distorsione, pregiudizio, impostazione di ricerca con risultati precostituiti, errore sistematico nel campionamento e nell’analisi dei dati» (L. Mecacci, Dizionario delle scienze psicologiche, Zanichelli, Bologna, 2012, p. 136.
Chiudi nota
43AA.VV., An Introduction to Statistical Learning, Springer, New York-Heidelberg-Dordrecht-Londra, 2013, p. 315 ss.
Chiudi nota
44AA.VV., An Introduction to Statistical Learning, cit., p. 303: «Tree-based methods are simple and useful for interpretation. However, they typically are not competitive with the best supervised learning approaches […] in terms of prediction accuracy. Hence […] we also introduce bagging, random forests, and boosting. Each of these approaches involves producing multiple trees which are then combined to yield a single consensus prediction. We will see that combining a large number of trees can often result in dramatic improvements in prediction accuracy, at the expense of some loss in interpretation».
Chiudi nota
45Attraverso le reti neurali, ad esempio, è possibile dai pixel riconoscere e (poi classificare) un’immagine. Il sistema lavora per strati di unità parallele: le prime ricevono l’input in forma “grezza”, di pixel, ed i successivi individuano prima i segni grafici più elementari (angoli ecc.) e poi quelli più elaborati (cerchi, triangoli, ecc.) sino a restituire un modello (ad esempio di viso, cioè l’output).
Chiudi nota
46G. Martinelli, voce “Reti neurali”, in Enc. Treccani, V app., 1994; Y. LeCun-Y. Bengio-G. Hinton, “Deep learning”, in Nature, 2015, p. 436 ss. Per un efficace esempio delle diverse modalità di pensiero che connotano il funzionamento delle macchine intelligenti, v. E. Daly, “AlphaZero batte Stockfish 28 a 0. Intelligenza Artificiale, gioco degli scacchi e scelte strategiche”, in corso di pubblicazione in Riv. fil. dir.
Chiudi nota
47P. Munro, voce “Backpropagation”, in C. Sammut-G.I. Webb (a cura di), Encyclopedia of Machine Learning, cit., p. 69.
Chiudi nota
48F. Pasquale, The Black Box Society. The Secret Algorithms that Control Money and Information, Harvard University Press, Cambridge-Londra, 2015, il quale utilizza la metafora della caverna di Platone per rappresentare coloro che sono entusiasti dei risultati di sistemi tecnologici poco intellegibili: «In the Allegory of the Cave, prisoners chained to face a stony wall watch flickering shadows cast by a fire behind them. They cannot comprehend the actions, let alone the agenda, of those who create the images that are all they know of reality. Like those who are content to use black box technology without understanding it, they can see mesmerizing results, but they have no way to protect themselves from manipulation or exploitation».
Chiudi nota
52A. Santoro, “Nuove frontiere per l’efficienza dell’amministrazione fiscale: tra analisi del rischio e problemi di privacy”, cit., p. 70.
Chiudi nota
53Z.H. Zhou, Machine Learning, cit., p. 4; Alpaydin E., Machine Learning, cit., p. 111 ss.
Chiudi nota
55MEF, Nota tecnica tecnica e metodologica, all. n. 71 al D.M. 23 marzo 2018. Per i riferimenti normativi, giurisprudenziali e dottrinali su ISA e studi di settore, si rinvia a, infra, § 3.1.
Chiudi nota
56Z.H. Zhou, Machine Learning, cit., p. 4; E. Alpaydin, Machine Learning, cit., p. 4.
Chiudi nota
57In genere si tratta di variabili concernenti il numero di addetti, che, secondo le note tecniche rilasciate di anno in anno (in occasione dell’approvazione degli Studi di settore, prima, e degli ISA, poi) «costituiscono per loro natura degli indicatori che forniscono una immediata lettura dal punto di vista economico; basti pensare, ad esempio, al rapporto fra il valore dei beni strumentali ed il numero di addetti». V. G. Melis, Manuale di diritto tributario, III ed. Giappichelli, Torino, 2021, p. 361 ss.
Chiudi nota
58AA.VV., An Introduction to Statistical Learning, cit., p. 24. Dopo aver sviluppato sistemi così avanzati di analisi dei dati, l’orizzonte verso cui tende attualmente la ricerca statistica e informatica pare essere quello dell’“explainable artificial intelligence” o "trustworthy AI" su cui cfr. AA.VV., “Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI”, in "Information Fusion, 2020, p. 82 ss. e M. Catanzariti, "Etica "artificiale": un nuovo modello regolatorio?", in Ars Interpretandi, 2021, fasc. 1, p. 165 ss. A tal fine appare promettente la combinazione del ragionamento simbolico con le tecniche di machinee deep learning" (“Libro bianco sull’intelligenza artificiale”. Un approccio europeo all'eccellenza e alla fiducia" COM (2020) 65, 19 febbraio 2020, p. 5). Alcuni autori ne hanno immaginato le potenzialità (ed i limiti) nel campo tributario: B. Kuźniacki-M. Almada-K. Tyliński-Ł. Górski-B. Winogradska-R. Zeldenrust, “Towards eXplainable Artificial Intelligence (XAI) in Tax Law: The Need for a Minimum Legal Standard”, in World Tax J., 2022, p. 573 ss. Sui richiami entusiastici alla "fiducia", anche nell'azione europea sull'AI, v. in senso critico S. Salardi, Intelligenza artificiale e semantica del cambiamento: una lettura critica, Giappichelli, Torino, 2023, p. 50 ss. e spec. p. 53, ove l'Autrice mette in luce il rischio che sia proprio «[...] la nozione di fiducia a inficiare gli sforzi europei verso un progresso incentrato sulle persone», poiché «[s]e si lascia troppo margine operativo alla valenza persuasiva delle nozioni come fiducia si rischia di svuotare il ruolo dello stesso diritto nell'orientare lo sviluppo tecnologico. Chi si fida non controlla e chi non è controllato non ha nemmeno bisogno di regole entro cui operare».
Chiudi nota
59P. Zellini, La dittatura del calcolo, Adelphi, Milano, 2018, cap. 15.
Chiudi nota
60Art. 3, Legge 7 agosto 1990, n. 241, art. 3; art. 7, Legge 27 luglio 2000, n. 212; art. 42 D.P.R. n. 600/1973. Oltre che un principio cardine dello Stato di diritto – corollario del principio di legalità e presupposto per l’effettivo esercizio di difesa – l’obbligo di motivare i provvedimenti amministrativi è espressione del principio di buona amministrazione sancito dalla Carta di Nizza (art. 41, sulla cui portata nei procedimenti tributari, cfr. S. Fiorentino, “Il diritto ad una buona amministrazione e la motivazione degli atti tributari”, in M. Pierro (a cura di), Il diritto ad una buona amministrazione nei procedimenti tributari, Giuffrè, Milano, 2019, p. 233 ss., e R. Schiavolin, “La portata rispetto all’ordinamento tributario italiano dei “diritti fondamentali di cui all’art. 41 della Carta U.E.”, in Neótera, 2018, fasc. 2, p. 7 ss.).
Chiudi nota
61E. Daly, “AlphaZero batte Stockfish 28 a 0. Intelligenza Artificiale, gioco degli scacchi e scelte strategiche”, cit., § 10 (in corso di pubblicazione). Cfr. altresì G. Fioriglio, "La Società algoritmica fra opacità e spiegabilità: profili informatico-giuridici", in Ars Interpretandi, 2021, fasc. 1, p. 53 ss. e spec. pp. 60-61.
Chiudi nota
62Art. 13, comma primo, proposta di Regolamento del Parlamento europeo e del Consiglio del 21 aprile 2021, COM(2021) 206. Tale approccio è criticato da G. Contissa-F. Galli-F. Godano-G. Sartor, i quali lamentano anche il fatto che non si rinvengano riferimenti all’utilizzo delle innovative tecniche di “explainable AI” di cui alla nota 58, supra (“Il regolamento europeo sull’intelligenza artificiale. Analisi informatico-giuridica”, in i-lex, 2021, fasc. 2, p. 24).
Chiudi nota
63Lo strumento deputato a questo scopo è la c.d. “comunicazione cambia-verso” o “lettera di compliance”, su cui ci soffermeremo infra, § 3.3.1. Su esperienze estere simili, A. Ribes Ribes, “La inteligencia artificial al servicio del «compliance tributario», in Revista española de derecho financiero”, 2020, p. 125 ss.
Chiudi nota
64Cfr., per tutti, G. Marongiu, “Il sorteggio fiscale e le amnesie del legislatore”, in Dir. prat. trib., 1977, I, p. 3 ss.; L. Perrone, “Evoluzione e prospettive dell’accertamento tributario”, in Riv. dir. fin., 1982, I, p. 110 ss.; A. Fantozzi, “I rapporti fra fisco e contribuente nella nuova prospettiva dell’accertamento tributario”, in Riv. dir. fin., 1984, I, p. 224 ss.; M. Trivellin, “I decreti ministeriali sui criteri selettivi per il controllo delle dichiarazioni nei recenti orientamenti giurisprudenziali”, in Riv. dir. trib., 1997, II, p. 559 ss.; S. La Rosa, Amministrazione finanziaria e giustizia tributaria, Giappichelli, Torino, 2000, p. 51 ss.; A. Di Pietro, “subart. 37, D.P.R. n. 600/1973”, in F. Moschetti (a cura di), Commentario breve alle leggi tributarie, cit., pp. 216-217; L. Strianese, La tax compliance nell’attività conoscitiva dell’amministrazione finanziaria, Aracne, Roma, 2014, p. 82 ss.; A. Carinci-T. Tassani, Manuale di diritto tributario, Giappichelli, Torino, 2021, p. 228 ss.
Chiudi nota
65Se non proprio libera, poiché come autorevolmente sostenuto, si è in presenza «di una facoltà di scelta, non sindacabile dal giudice, prevista dalla legge; la quale comporta solo una ponderazione dell’interesse pubblico al miglior accertamento nelle sue diverse articolazioni, come tale, insindacabile da parte del giudice su iniziativa del contribuente» (F. Gallo, “Discrezionalità nell’accertamento e sindacabilità delle scelte d’ufficio”, in Riv. dir. fin., 1992, I, p. 661 ss.). Sostengono, invece, che si tratti di attività discrezionale, dunque sindacabile per eccesso di potere, A. Fantozzi, “I rapporti fra fisco e contribuente nella nuova prospettiva dell’accertamento tributario”, in Riv. dir. fin., 1984, I, p. 228; G. Vanz, I poteri conoscitivi e di controllo dell’amministrazione finanziaria, Cedam, Padova, 2012, p. 232 ss.
Chiudi nota
66Limitando l’analisi all’ambito imposte sui redditi e dell’Iva, i riferimenti normativi sono collocati agli artt. 37, D.P.R. 29 settembre 1973, n. 600, e 51, D.P.R. 26 ottobre 1972 n. 633. Cfr., però, M. D’alonzo, “Il controllo fiscale tra “controlli globali a sorteggio”, “criteri selettivi” e “indirizzi operativi””, in Dir. prat. trib., 2022, p. 1521 ss., sulla progressiva perdita di rilevanza dei “criteri selettivi” fissati annualmente dal MEF, in favore degli “indirizzi operativi” impartiti (con circolare) agli uffici periferici da ciascuna Agenzia fiscale in esecuzione della convenzione triennale stipulata col MEF, per l’attuazione degli obiettivi indicati dal “Documento di economia e finanza” approvato dal Parlamento. G. Vanz la qualifica come una pratica contra legem le cui ragioni non sono chiare, pur potendosi ipotizzare che «le considerazioni in allora svolte dalla dottrina circa la rilevanza esterna dei decreti ministeriali di fissazione dei criteri selettivi, e il conseguente timore che il contribuente potesse eccepire in sede giurisdizionale la violazione di tali criteri come vizio dell’attività di controllo (e, quindi, del conseguente atto di accertamento), abbiano indotto l’amministrazione finanziaria ad adottare la forma della circolare, al fine di sottolinearne ulteriormente il carattere meramente interno» (I poteri conoscitivi e di controllo dell’amministrazione finanziaria, Cedam, Padova, 2012, p. 233 ss.).
Chiudi nota
67L. Strianese, La tax compliance nell’attività conoscitiva dell’amministrazione finanziaria, cit., p. 84. Come rammenta F. Gallo (“Discrezionalità nell’accertamento e sindacabilità delle scelte d’ufficio”, cit., p. 662), solo a partire dal D.M. 16 dicembre 1985 (artt. 6, comma 1, lett. b, e 14, comma 1) è stata prevista espressamente la destinazione di una residua capacità operativa degli Uffici all’esame delle posizioni fiscali «degli altri soggetti per i quali gli uffici dispongono di dati e notizie o nei confronti dei quali ritengono di procedere».
Chiudi nota
68
Sin dagli anni Ottanta si sono avvicendati diversi metodi di determinazione presuntiva, mediante “standardizzazione”, dell’imponibile di imprenditori minori e lavoratori autonomi, sul presupposto per cui la loro contabilità semplificata può rendere inefficaci le tradizionali metodologie analitiche. Tuttavia, come si rammenta di seguito, tali tecniche – anche nella loro versione più evoluta, gli “studi di settore” (art. 62-bis, D.L. 30 agosto 1993, n. 331, conv. con Legge 29 ottobre 1993, n. 427) – hanno prodotto spesso esiti poco intellegibili e inidonei a rappresentare con una buona approssimazione la capacità contributiva del soggetto accertato (si veda la rassegna di giurisprudenza pubblicata in Dir. prat. trib., 2007, II, p. 831 ss.; ivi, 2008, II, p. 787 ss.; ivi, 2009, II, p. 183 ss.; ivi, 2010, II, p. 939 ss.; ivi, 2012, II, p. 147 ss.). Probabilmente a causa del vasto contenzioso che ne è conseguito (basti qui ricordare Cass., Sez. un., 18 dicembre 2009, da n. 26635 a n. 26638), in anni recenti è stata attuata un’ampia rivisitazione dello strumento, che pur mantenendone (in buona parte) intatti i capisaldi statistici, gli ha attribuito un’efficacia radicalmente diversa. Gli indici sintetici di affidabilità fiscale, disciplinati dall’art. 9-bis, D.L. 24 aprile 2017, n. 50 (conv. con Legge 21 giugno 2017, n. 96), non sono infatti uno strumento accertativo, bensì di promozione della compliance attraverso meccanismi premiali. G. Ingrao (“Prime considerazioni sul ruolo degli indicatori di affidabilità nel rapporto Fisco-contribuente”, in Riv. dir. trib., 2019, pp. 198-199) evidenzia un nesso di continuità fra i due strumenti e conclude che la portata della riforma è «rilevante, ma meno dirompente di quel può sembrare di primo acchito», pur rimarcando «come sia venuto meno l’automatismo scostamento/accertamento che caratterizzava gli studi di settore (con valenza presuntiva del risultato degli studi medesimi), in quanto con i nuovi indicatori la modesta affidabilità si riflette sull’indice di rischio di evasione fiscale e quindi sull’incremento della possibilità di subire un controllo ordinario».
Sulle predeterminazioni normative e la determinazione presuntiva dell’imponibile, cfr., per tutti, R. Lupi, Metodi induttivi e presunzioni nell’accertamento tributario, Giuffrè, Milano, 1988; L. Tosi, Le predeterminazioni normative nell’imposizione reddituale, Giuffrè, Milano, 1999; A. Marcheselli, Le presunzioni nel diritto tributario: dalle stime agli studi di settore, Giappichelli, Torino, 2008.
Chiudi nota
70A titolo esemplificativo, MEF, Nota tecnica tecnica e metodologica, all. n. 71 al D.M. 23 marzo 2018.
Chiudi nota
71Gli studi di settore, infatti, oltre ad essere elaborati «sentite le associazioni professionali e di categoria» (D.L. n. 331/1993), dovevano essere “validati” da una commissione rappresentativa anche delle categorie economico-professionali interessate dagli stessi, la quale doveva esprimersi sulla loro idoneità a rappresentare la realtà economica delle attività, eventualmente evidenziando la necessità di correttivi, o di circostanze che avrebbero potuto giustificare scostamenti (G. Marongiu, “Coefficienti presuntivi, parametri e studi di settore”, in Dir. prat. trib., 2002, I, p. 724).
Chiudi nota
72La giurisprudenza è infatti giunta a constatare che gli «studi di settore, pur costituendo fuor di dubbio uno strumento più raffinato dei parametri, soprattutto perché la loro elaborazione prevede una diretta collaborazione delle categorie interessate, restano tuttavia una elaborazione statistica, il cui frutto è una ipotesi probabilistica, che, per quanto seriamente approssimata, può solo costituire una presunzione semplice», da calibrare «in contraddittorio con il contribuente, in modo da “fotografare” la specifica realtà economica della singola impresa la cui dichiarazione dell’ammontare dei ricavi abbia dimostrato una significativa “incoerenza” con la “normale redditività” delle imprese omogenee considerate nello studio di settore applicato» (Cass., Sez. un., 18 dicembre 2009, da n. 26635 a n. 26638, in Giur. it., 2010, p. 711 ss., con nota di A. Marcheselli, “Natura giuridica degli accertamenti mediante studi di settore e “giusto procedimento” tributario: quattro sentenze capitali delle Sezioni unite della Corte di cassazione”, e in Riv. dir. fin., 2010, II, p. 33 ss., con nota di F. Montanari, “Un importante contributo delle Sezioni Unite verso la lenta affermazione del “contraddittorio difensivo” nel procedimento di accertamento tributario”): solo così, come noto, le presunzioni contenute dagli studi acquisiscono i caratteri di precisione, gravità e concordanza, idonei a fondare un recupero a tassazione.
Chiudi nota
76Art. 36-biscit., comma 3, e art. 2, D. Lgs. 18 dicembre 1997, n. 462.
Chiudi nota
79Su cui, v. R. Schiavolin, “Limiti di applicabilità dell’art. 36 bis, d.p.r. n. 600/1973”, in GT – Giur. trib., 1994, p. 1166.
Chiudi nota
80A titolo esemplificativo, Cass., Sez. I, 1 marzo 1991, n. 2174, in Dir. prat. trib., II, p. 55 ss., con nota di G. Marongiu, “Le iscrizioni a ruolo non precedute da accertamento e le pesanti, pratiche conseguenze”; Cass., 20 ottobre 2008, n. 25482; Id., ord., 12 dicembre 2016, n. 25472; Id., ord., 29 dicembre 2020, n. 29734; Id., ord., 29 dicembre 2021, n. 41840; Id., 16 febbraio 2022, n. 5016.
Chiudi nota
81Su tale deriva, cfr. in chiave critica G. Marongiu, “Gli illegittimi corollari dell’abuso dell’art. «36 bis»”, in Dir. prat. trib., 1993, II, 749 ss.; Id., “Le iscrizioni a ruolo non precedute da accertamento e le pesanti, pratiche conseguenze”, in Dir. prat. trib., 1993, II, p. 60 ss.; A. Zuccarello, “Algoritmi e automatismi nei controlli della dichiarazione: profili problematici”, in Riv. tel. dir. trib., 2 giugno 2022. Come osservato da F. Tesauro vi è una ben precisa linea di demarcazione fra le attività di “liquidazione” e quelle di “accertamento”, poiché col primo termine si «designa l’operazione di calcolo (dell’imposta) [che] è tipizzata, nei suoi contenuti e nei suoi limiti, per le imposte sui redditi», mentre col secondo si intende la «verifica dell’imponibile» (Istituzioni di diritto tributario. Parte generale, cit., p. 185, nota 1; v. anche, con riguardo alla originaria formulazione dell’art. 36-bis, F. Tesauro, “Appunti sulle procedure di accertamento dei redditi di impresa”, cit., p. 471 ss.). Proprio con la previsione secondo cui «I dati contabili risultanti dalla liquidazione […] si considerano, a tutti gli effetti, come dichiarati dal contribuente» (art. 36-bis, comma 4) il legislatore pare aver voluto escludere che tale attività costituisca una rettifica della dichiarazione (G. Falsitta, Manuale di diritto tributario, XI ed., Cedam, Milano, 2020, pp. 417-418). Ritiene condivisibilmente paradossale e ingiustificabile la piena fungibilità fra liquidazione e accertamento “generale” G. Fransoni, “Considerazioni su accertamenti “generali”, accertamenti parziali, controlli formali e liquidazioni della dichiarazione alla luce della legge n. 311/2004”, in Riv. dir. trib., 2005, I, p. 606.
Chiudi nota
82
L’art. 6, comma 5, dello Statuto dei diritti del contribuente (L. 27 luglio 2000, n. 212) impone all’A.F., a pena di nullità, di invitare il contribuente a fornire i chiarimenti necessari o a produrre i documenti mancanti prima di procedere all’iscrizione a ruolo derivante dalla liquidazione di tributi risultanti dalla dichiarazione, qualora sussistano incertezze su aspetti rilevanti della stessa. Come rammenta A. Fantozzi, «Le forme di dialogo tra fisco e contribuente nella forma del contraddittorio c.d. procedimentale o precontenzioso, originariamente introdotte in tutti i casi di limitazione dell’analiticità dell’accertamento e quindi della possibilità di difesa del contribuente (indici, coefficienti, studi di settore, accertamenti antielusivi) sono state poi istituzionalizzate con l’art. 6 comma 5 e l’art. 12 comma 7 dello Statuto dei diritti del contribuente (legge 212/2000) ed infine ormai riconosciute quale presupposto indefettibile (a pena di nullità) dell’atto di accertamento sulla base della consolidata giurisprudenza della Corte Europea di Giustizia e della Corte di Cassazione, nonché della Corte Costituzionale» (“L’accertamento tributario dalla dichiarazione verificata all’esaltazione della compliance”, in C. Glendi-G. Corasaniti-C. Corrado Oliva-P. De’ Capitani di Vimercate (a cura di), Per un nuovo ordinamento tributario, vol. II, Cedam, Milano, 2019, p. 944). Secondo consolidata giurisprudenza, in caso di mancato invio dell’avviso bonario, la sanzione della nullità della cartella non opera però qualora non sussistano incertezze rilevanti sulla dichiarazione, come avviene in caso di mancata corrispondenza di quanto versato al dichiarato (fra le tante, Cass., 25 maggio 2012, n. 8342; Id., ord., 8 luglio 2014, n. 15584; Id., ord., 17 febbraio 2015; n. 3154; Id., 5 ottobre 2016, n. 19893; Id., 17 dicembre 2019; n. 33344; Id., ord., 30 giugno 2021, n. 18405). Contra, M. Basilavecchia, “Avviso bonario e comunicazione al contribuente”, in Corr. trib., 2008, p. 873, secondo cui «dalla carenza, sia nella disposizione statutaria, sia nell’art. 36-bis, di una disciplina compiuta della comunicazione, potrebbe ricavarsi un dato interpretativo opposto, che svilisca la funzione – e quindi l’essenzialità – dell’adempimento; ma sarebbe in tal modo tradita quella funzione, e il contribuente perderebbe una possibilità di partecipazione che, per quanto insoddisfacente possa essere giudicata, costituisce comunque l’unico mezzo per evitare disparità di trattamento tra le prerogative assicurate in sede di accertamento in senso stretto, là dove contraddittorio e definizione agevolata sono comunque possibili in ogni caso, e quelle assicurate dalla pur delicata fase di riscossione».
Sullo scarso coordinamento legislativo fra l’art. 6, comma 5, dello Statuto e gli artt. 36-bis e -ter, D.P.R. n. 600/1973, A. Fantozzi, “Violazioni del contraddittorio e invalidità degli atti”, in Riv. dir. trib., 2011, I, p. 154. In tema, cfr. altresì S. Zagà, “Le discipline del contraddittorio nei procedimenti di «controllo cartolare» delle dichiarazioni”, in Dir. prat. trib., 2015, p. 845 ss.; A. Guidara, “Rapporto tra avviso bonario e iscrizione a ruolo nella liquidazione della dichiarazione”, in Corr. trib., 2015, p. 1819.
Chiudi nota
83Analoghe e condivisibili preoccupazioni sono state espresse anche rispetto ai controlli automatizzati veicolati da accertamenti parziali ex art. 41-bis, D.P.R. n. 600/1973, da S. La Rosa (“Dalla dichiarazione “unica” del contribuente alla dichiarazione “precompilata” dal Fisco ed agli accertamenti fiscali “automatizzati””, in AA.VV., Saggi in ricordo di Augusto Fantozzi, Pacini, Pisa, 2021, p. 121), secondo cui è ragionevolmente prevedibile che, sulla base delle comunicazioni obbligatorie dei terzi all’Anagrafe, gli Uffici siano indotti a ritenersi sollevati dagli oneri relativi al contraddittorio previsto per il controllo formale ex art. 36-ter e legittimati alla diretta emissione di accertamenti parziali di massa totalmente automatizzati e fondati solo su di esse (come noto, l’emissione di un accertamento parziale esime l’Agenzia dall’invito obbligatorio ex art. 5-ter, D. Lgs. n. 218/1997). Sulle rettifiche eseguibili con tale strumento e sul labile confine coi controlli ex artt. 36-bis e -ter, v. la ricostruzione diacronica di E.M. Bagarotto, La frammentazione dell’attività accertativa ed i principi di unicità e globalità dell’accertamento, Giappichelli, Torino, 2014, p. 225 ss.; sulle sue prime fasi di operatività, invece, M. Basilavecchia, L’accertamento parziale. Contributo allo studio della pluralità di atti di accertamento nelle imposte sui redditi, Giuffrè, Milano, 1988.
Chiudi nota
84Sin da Cass., 20 novembre 1989, n. 4958, tale procedimento è stato reputato eccezionale rispetto a quello di accertamento, perché, per favorire la rapida correzione di errori materiali nella dichiarazione con un mero controllo formale, esso «deroga al principio secondo cui il potere-dovere di rettificare la dichiarazione va esercitato attraverso atti di accertamento rigorosamente motivati» (su tale eccezionalità, v. poco prima Corte cost., ord., 7 aprile 1988, n. 430, in Rass. trib., 1988, II, p. 559 ss., con nota di M. Basilavecchia, “La liquidazione dell’imposta dovuta in base al dichiarato nella valutazione della Corte costituzionale”). La Corte di cassazione constatò che la ri-liquidazione, pur essendo portata a conoscenza del contribuente con un atto, l’iscrizione a ruolo, tipico della riscossione e che non richiede alcuna motivazione (in quanto di norma preceduto da avviso di accertamento), cumula in sé anche la funzione di atto di accertamento, [che] ne renderebbe necessaria la motivazione. Sulla duplice funzione assolta dal ruolo nelle diverse ipotesi enumerate dall’art. 36-bis, v. compiutamente A. Carinci, La riscossione a mezzo ruolo nell’attuazione del tributo, Pacini, Pisa, 2008, p. 180, ove l’Autore rileva che la dichiarazione è titolo per l’iscrizione a ruolo solo in caso di omesso versamento, mentre nelle altre ipotesi titolo di iscrizione a ruolo è il risultato di un’attività di controllo e, dunque, il ruolo assume anche una funzione impositiva, oltre che esattiva. In tali ultime ipotesi, esso deve essere motivato (pp. 216-219). In tema, cfr. altresì – senza pretesa di esaustività – G. Gaffuri, “Considerazioni sull’accertamento tributario”, in Riv. dir. fin., 1981, I, p. 534 ss.; P. Coppola, “La liquidazione dell’imposta dovuta ed il controllo formale delle dichiarazioni (artt. 36-bis e 36-ter del D.P.R. n. 600/1973)”, in Rass. trib., 1997, spec. pp. 1505-1506; E.M. Bagarotto, La frammentazione dell’attività accertativa ed i principi di unicità e globalità dell’accertamento, cit., p. 112 ss.
Chiudi nota
85Più precisamente, la “Relazione sull’economia non osservata e sull’evasione fiscale e contributiva” presentata al MEF per l’anno 2022 (ex art. 10-bis.1, comma 3, Legge 31 dicembre 2009, n. 196), su cui ci soffermiamo infra, § 3.3.1, propone di modificare l’efficacia delle c.d. “lettere di compliance” (art. 1, commi 634-636, Legge 23 dicembre 2014, n. 190) assimilandole, sotto vari profili, agli avvisi bonari.
Chiudi nota
86Già da tempo in dottrina si tende ad escludere che i risultati di tali analisi possano essere veicolate nelle forme di cui all’artt. 36-bis, che non assicurano il necessario intervento umano nella verifica dei risultati dell’algoritmo, operazione richiesta dal Garante della privacy già con il parere del 14 marzo 2019, n. 58 (G. Ragucci, “L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”?”, cit.).
Chiudi nota
87Dal comma 6, art. 7, D.P.R. n. 605/1973, inserito dall’art. 20, comma 2, lett. b, Legge 30 dicembre 1991, n. 413.
Chiudi nota
88Ad opera dell’art. 11, commi 2 e 3, del D.L. 6 dicembre 2011, n. 201, come conv. in Legge 22 dicembre 2011, n. 214. La portata innovativa della previsione e il suo potenziale impatto sui delicati equilibri fra protezione dei dati personali e interesse fiscale furono subito colte da S. Muleo, che osservò come fosse «passato sostanzialmente sotto silenzio, nell’opinione pubblica, un provvedimento che nemmeno nella fantasia orwelliana di “1984” era stato immaginato» (“Il principio europeo dell’effettività della tutela e gli anacronismi delle presunzioni legali tributarie alla luce dei potenziamenti dei poteri istruttori dell’Amministrazione finanziaria”, in Riv. trim. dir. trib., 2012, p. 687, nota 4).
Chiudi nota
89Corte dei conti, “L’utilizzo dell’Anagrafe dei rapporti finanziari ai fini dell’attività di controllo fiscale”, Deliberazione del 26 luglio 2017, n. 11/2017/G; Santoro A., “Nuove frontiere per l’efficienza dell’amministrazione fiscale: tra analisi del rischio e problemi di privacy”, cit., p. 73 ss.
Chiudi nota
90
MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit.
Contestualmente, il Provv. del Direttore dell’Agenzia delle entrate del 23 maggio 2022, n. 176227, interviene sulle modalità e i contenuti delle comunicazioni all’Anagrafe tributaria degli intermediari finanziari, richiedendo una individuazione specifica dei servizi di pagamento, rispondente «all’esigenza di censire gli strumenti di trasferimento di fondi che possono considerarsi tra i più rappresentativi dell’evoluzione del mercato dei prodotti finanziari e dell’e-commerce», e dei dati contabili delle carte di credito, «in ragione della significatività di tali informazioni ai fini, rispettivamente, della spesa effettiva e della capacità di spesa potenziale e pertanto della diversa valenza ai fini dell’analisi del rischio di evasione nonché dei controlli ISEE».
Chiudi nota
91MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit., p. 21.
Chiudi nota
93MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit., p. 22.
Chiudi nota
95MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit., p. 23.
Chiudi nota
96Nel 2017, nell’ambito di un controllo sulla gestione delle Amministrazioni dello Stato, l’Agenzia delle entrate ha riferito alla Corte dei conti che le prime sperimentazioni risulterebbero efficaci nell’«individuare contribuenti che sfuggirebbero ad altri criteri di selezione (es. redditometro) in quanto per essi potrebbe essere, ora, possibile verificare che, pur in presenza di spese compatibili con il reddito, il contestuale incremento di disponibilità finanziarie presso gli istituti di credito non risulta giustificabile in base ai redditi dichiarati». Il risparmio annuo registrato dall’Archivio verrebbe dunque confrontato con quello “potenziale” stimato «in base alle voci di entrata (es. i dati reddituali) e di spesa (es. mutui, utenze) presenti nell’Anagrafe tributaria» (Corte dei Conti, “L’utilizzo dell’anagrafe dei rapporti finanziari ai fini dell’attività di controllo fiscale”, cit.).
Chiudi nota
97Come esemplifica efficacemente A. Santoro, “Nuove frontiere per l’efficienza dell’amministrazione fiscale: tra analisi del rischio e problemi di privacy”, cit., p. 70.
Chiudi nota
98A. Santoro, op. cit., p. 71, invita, infatti, a ponderare «il costo connesso alla complessità dei diversi metodi», poiché la scarsa intellegibilità del percorso compiuto da metodi altamente performanti «potrebbe rappresentare un ostacolo non di poco conto e quindi spingere a scegliere il metodo più semplice anche rinunciando in parte alla capacità predittiva». Cfr. altresì P. Battiston-S. Gamba-A. Santoro, “Optimizing Tax Administration Policies with Machine Learning”, in DEMS Working Paper Series, 2020, disponibile al collegamento http://repec.dems.unimib.it/repec/pdf/mibwpaper436.pdf, da cui emerge che, fra gli stessi modelli probabilistici, alcuni sono più interpretabili di altri, e M. Barone-S. Pisani-A. Spingola, "Data Mining Application Issues in the Taxpayer Selection Process", in AA.VV., Applied Modeling Techniques and Data Analysis 2, Wiley, Hoboken, 2021, p. 12, ove si apprende che, per sviluppare uno schema di autoapprendimento fruibile da parte dell'Agenzia delle entrate italiana nella selezione dei contribuenti, è stato proposto un metodo che combina più alberi decisionali, detto "bagging", sfruttando una banca dati di accertamenti emessi per il periodo 2012. Come da più parti evidenziato (anche supra, nota 44), grazie alla preponderanza di fattori probabilistici, simili metodi risultano più accurati rispetto ad un singolo albero decisionale, a scapito talvolta dell’interpretabilità.
Chiudi nota
99È però confortante, in tal senso, quanto emerge dalla circolare dell’Agenzia delle entrate n. 21/E/2022 e dalla valutazione d’impatto del Garante privacy n. 276/2022, ove si legge rispettivamente che gli Uffici si concentreranno «[…] sulle fattispecie con significativi ed elevati profili di rischio e che presentino un interesse sia dal punto di vista della proficuità sia della sostenibilità della pretesa tributaria» e che «per garantire l’affidabilità, la completezza e la qualità del training set, saranno utilizzate solo informazioni storiche relative a processi che hanno esaurito il proprio ciclo di vita amministrativo». Non è chiaro se quest’ultima affermazione valga ad escludere dai “training set” solo gli atti annullati o revocati in autotutela (o definiti con strumenti deflattivi) o anche quelli annullati in giudizio.
Chiudi nota
100R. de la Feria-M.A. Grau Ruiz, “The Robotisation of Tax Administration”, in M.A. Grau Ruiz (a cura di), Interactive Robotics: Legal, Ethical, Social and Economic Aspects, Springer, Cham, 2022, § III, secondo cui «Whilst AI can correct human biases and noise if well-designed, there is now strong evidence that many algorithms not only entrench the biases of its (human) designers, but augment them. AI is often trained to identify correlations between characteristics and outcomes, using those correlations to predict future outcomes. The problem is that correlation is not causation, and inferring causation from mere correlation can often lead to discrimination of specific groups, such as women or racial minorities. In tax administration, risk assessment tools are particularly susceptible to these profiling problems».
Chiudi nota
101D. Hadwick-S. Lan, “Lessons to Be Learned from the Dutch Childcare Allowance Scandal: a Comparative Review of Algorithmic Governance by Tax Administrations in the Netherlands, France and Germany”, in World Tax J., 2021, p. 609 ss.; D. Hadwick, “The toeslagenaffaire. Netherlands: childcare allowance scandal”, in aitaxadmin.eu.
Chiudi nota
102V. G. D'Acquisto, Intelligenza artificiale, Giappichelli, Torino, 2021, pp. 12 ss. e 75, ove si evidenzia un limite intrinseco del ragionamento artificiale rispetto a quello umano, sotto il profilo della difficoltà di ampliare la base di conoscenza al di là degli esempi forniti: «l'interpretazione del mondo effettuata unicamente attraverso l'esperienza farà apparire il mondo futuro come una replica del mondo passato».
Chiudi nota
103Art. 3, comma 2, D.M. 28 giugno 2022, benché la successiva valutazione di impatto del Garante constati anche il trattamento di «dati delle strutture sanitarie private», senza che ne risulti specificata la natura.
Chiudi nota
107Facendo ricorso alle informazioni aggiuntive, che nel frattempo saranno state conservate separatamente e con accorgimenti per la riservatezza, come impone il GDPR (art. 4, comma 1, n. 5).
Chiudi nota
108Per gli enti associativi, il sistema rileverà anomalie se, pur non essendo stato presentato il modello EAS, l’ente abbia beneficiato delle agevolazioni ex artt. 148 TUIR e 4 del D.P.R. n. 633/1972, in relazione alle quote associative e ai contributi versati da associati e partecipanti, risultanti dalle movimentazioni finanziarie.
Chiudi nota
109Nei confronti delle società, lo strumento era già stato sperimentato, in attesa del superamento delle ripetute censure del Garante della privacy sul trattamento automatizzato dei dati delle persone fisiche. Il provvedimento del Direttore dell’Agenzia del 31 agosto 2018 prevedeva, infatti, l’individuazione delle società per le quali, pur risultando sui conti correnti movimenti in accredito secondo le informazioni comunicate all’Archivio dei rapporti finanziari, la dichiarazione ai fini delle imposte dirette e dell’Iva per l’anno di imposta 2016 fosse omessa o priva di dati contabili significativi. Per ogni posizione segnalata, gli uffici periferici venivano informati della numerosità dei conti correnti, del totale aggregato dei saldi e dei movimenti dei rapporti finanziari e di eventuali ulteriori elementi significativi presenti in Anagrafe tributaria. Per monitorare l’efficacia dell’analisi, questi ultimi erano invitati a comunicare agli uffici centrali gli esiti delle attività svolte per ciascuna posizione compilando una scheda di feedback, adempimento riconfermato dalla circolare n. 21/E/2022.
Chiudi nota
110Ex art. 1, commi 634-636, Legge 23 dicembre 2014, n. 190, su cui cfr. compiutamente M.C. Pierro, “La comunicazione preventiva nei procedimenti tributari di controllo e la tax compliance”, in Riv. dir. fin., 2018, I, p. 375 ss.; G. Ragucci, Gli istituti della collaborazione fiscale. Dai comandi e controlli alla Tax Compliance, Giappichelli, Torino, 2018, p. 40; D. Conte, Dal controllo fiscale sul dichiarato al controllo preventivo sull’imponibile. Dall’accertamento alla compliance, Cedam, Milano, 2018, p. 37 ss.; A. Fantozzi, “L’accertamento tributario dalla dichiarazione verificata all’esaltazione della compliance”, cit., p. 939 ss.
Chiudi nota
112Per i riferimenti normativi e dottrinali sulle c.d. “lettere di compliance” o “comunicazioni cambia-verso”, v. supra, nota 110. Non si evince alcun obbligo di invio delle stesse a seguito dell’analisi compiuta con Ve.R.A. ai sensi dei commi 682-686, art. 1, Legge n. 160/2019.
Chiudi nota
113In tal senso, G. Fransoni, Le indagini tributarie. Attività e poteri conoscitivi nel diritto tributario, Giappichelli, Torino, 2020, p. 18, secondo cui, nonostante i «[…] non pochi sviluppi interpretativi e normativi che consentono oggi di ritenere più saldamente stabilito il principio del contraddittorio, è comunque necessario sottolineare la persistente incompletezza della disciplina in quanto esso, nei singoli procedimenti, appare ancora disciplinato in modo frammentario e disomogeneo, con evidenti lacune rispetto a taluni “tipi” di procedimento o ai procedimenti relativi a taluni tributi». Del resto, non potendosi riepilogare in questa sede i diversi approdi della giurisprudenza nazionale e sovranazionale, basti constatare che l’invito obbligatorio alla definizione dell’accertamento di recente introduzione contempla vaste deroghe, che lasciano dubitare dell’effettiva portata generale del contraddittorio procedimentale obbligatorio. L’art. 5-ter, inserito nel D. Lgs. n. 218/1997 ad opera dell’art. 4-octies, D.L. 30 aprile 2019, n. 34, non si applica, infatti, in caso di avviso di accertamento parziale, se sia stata rilasciata copia del processo verbale di chiusura delle operazioni da parte degli organi di controllo e nei casi di particolare urgenza specificamente motivata o di fondato pericolo per la riscossione. Al di là di tali eccezioni, il mancato avvio del contraddittorio è previsto a pena di nullità dell’avviso di accertamento solo se, a seguito di impugnazione, il contribuente dimostri in concreto le ragioni che avrebbe potuto far valere se il contraddittorio fosse stato attivato.
Chiudi nota
114Art. 2-undecies, D. lgs. n. 196/2003, comma primo, lett. f-bis. Il comma 3 fa salva però la possibilità di esercitare quei diritti indirettamente, tramite il Garante, con le particolari modalità di cui all’articolo 160, D. lgs. n. 196/2003.
Chiudi nota
117Supra, § 3.2, in particolare per quanto attiene alla mancanza di garanzie di contraddittorio effettivo e motivazione delle rettifiche contenute negli avvisi bonari (o comunicate direttamente attraverso la notifica della cartella).
Chiudi nota
119P. Pistone, Diritto tributario europeo, Giappichelli, Torino, 2018. p. 86, come confermato, in giurisprudenza, da Corte giust., 9 novembre 2010, Volker und Markus Schecke GbR e Hartmut Eifert c. Land Hessen, cause riunite C-92/09 e C-93/09, § 52-53.
Chiudi nota
120Corte Edu, 7 luglio 2015, M.N. ed altri c. San Marino, ricorso n. 28005/12, § 51; Id., 1 dicembre 2015, Brito Ferrinho Bexiga Villa-Nova c. Portugal, ricorso n. 69436/10, § 42-44.
Chiudi nota
121Corte giust., 20 maggio 2003, Rechnungshof e altri c. Österreichischer Rundfunk, cause riunite C-465/00, C-138/01 e C-139/01, § 73.
Chiudi nota
122A prescindere dai dati sensibili, «l’espressione “vita privata” non deve essere interpretata in modo restrittivo», sicché «le informazioni reperite in documenti bancari costituiscono indubbiamente dati personali» (rispettivamente Corte giust., 20 maggio 2003, Rechnungshof e altri c. Österreichischer Rundfunk, cause riunite C-465/00, C-138/01 e C-139/01, § 73, e Corte EDU, 7 luglio 2015, M.N. ed altri c. San Marino, ricorso n. 28005/12, § 51, traduzione non ufficiale). In tal senso, in dottrina, per tutti, G. Fransoni, “«Indagini finanziarie», diritto alla riservatezza e garanzie «procedimentali»”, in Corr. trib., 2009, p. 3587 ss.; M. Cedro, Le indagini fiscali sulle operazioni finanziarie e assicurative, Giappichelli, Torino, 2011, pp. 9-10; A. Viotto, “Recenti modifiche normative in tema di accertamenti bancari: tra tutela del diritto alla riservatezza ed interesse generale alla repressione dell’evasione”, in Riv. trim. dir. trib., 2017, p. 823.
Chiudi nota
123Corte Edu, 22 dicembre 2015, G.S.B. c. Svizzera, ricorso n. 28601/11, § 93.
Chiudi nota
126Preambolo del GDPR, § 71. A proposito del trattamento massivo di dati dei contribuenti ai fini di selezione e controllo, A. Contrino si interroga sull’intrusività del sindacato di proporzionalità e, sulla base dell’analisi della giurisprudenza della Corte di giustizia UE e della Corte Edu (anche in materie diverse da quella fiscale), conclude che «non esiste un’adeguata elaborazione dei limiti e delle condizioni di legittimità, in termini di “proporzionalità”, del trattamento di rilevanti quantità di dati personali nell’ambito di banche dati fiscali» (“Banche dati tributarie, scambio di informazioni fra autorità fiscali e “protezione dei dati personali”: quali diritti e tutele per i contribuenti?”, in Riv. tel dir. trib., 29 maggio 2019). Cfr. altresì A. Contrino-S. Ronco, “Prime riflessioni e spunti in tema di protezione dei dati personali in materia tributaria, alla luce della giurisprudenza della Corte di giustizia e della Corte Edu”, in Dir. prat. trib. int., 2019, p. 599 ss.; L. Scarcella, “Tax compliance and privacy rights in profiling and automated decision making”, in Internet Policy Rev., 2019, p. 1 ss.
Chiudi nota
128Qual è il grado di intervento umano richiesto dall’art. 22 del GDPR? Un’interpretazione letterale della disposizione – che vieta una «decisione basata unicamente sul trattamento automatizzato» – farebbe propendere per la legittimità di interventi umani minimali, come la semplice firma del funzionario su un provvedimento elaborato da sistemi di intelligenza artificiale. Si consideri tuttavia anche il termine “basata”, che a parere di chi scrive, richiede un intervento umano sufficiente a dare corpo (o comunque concorrere) anche alla parte motivazionale del provvedimento. Un’interpretazione sistematica e teleologica, che prenda in considerazione il nesso fra il diritto all’intervento umano e quello – ricorrente in varie disposizioni del GDPR – a conoscere l’esistenza e la logica di un processo decisionale automatizzato avvalora la seconda tesi. Su tale dibattito, cfr. G. Malgieri-G. Comandé, “Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation”, in Int’l Data Privacy L., 2017, p. 243 ss.
Chiudi nota
130Quest’ultimo, per i destinatari delle “lettere di compliance”, può essere esercitato a decorrere dal momento di ricezione degli inviti alla regolarizzazione della posizione fiscale; per i contribuenti destinatari delle attività di controllo, a decorrere dalla data di consegna del p.v.c. o dalla notifica dell’atto istruttorio o del provvedimento impositivo; per i contribuenti non destinatari delle predette attività, solo una volta scaduto il termine di decadenza per l’esercizio della potestà impositiva (art. 4). Come noto, indipendentemente dalle specifiche previsioni sull’accesso contenute nel GDPR, il diritto di accesso nei procedimenti tributari non è pienamente riconosciuto, sulla scorta dell’art. 24, comma 1, lett. b, Legge n. 241/1990. Cfr., senza pretesa di esaustività, L. Salvini, voce “Accesso agli atti del procedimento tributario”, in S. Cassese (diretto da), Dizionario di diritto pubblico, Giuffrè, Milano, 2006, p. 66 ss.; M. Basilavecchia, “Impossibile l’accesso agli atti tributari”, in Corr. trib., 2008, p. 3093 ss.; M. Logozzo, “Il diritto ad una buona amministrazione e l’accesso agli atti nel procedimento tributario”, in M. Pierro (a cura di), Il diritto ad una buona amministrazione nei procedimenti tributari, cit., p. 171 ss., e, sui recenti e importanti approdi giurisprudenziali in materia, Antonini M.-Piantavigna P., “Accesso agli atti tributari: le nuove tutele previste dal Consiglio di Stato”, in Corr. trib., 2022, p. 691 ss.; L. Lamberti, “L’accesso difensivo alle informazioni tributarie e il difficile equilibrio rispetto alla tutela della privacy”, in Riv. tel. dir. trib., 27 maggio 2022.
Chiudi nota
132In proposito, e con un certo disappunto, si condivide la constatazione di A. Marcheselli e S.M. Ronco, secondo cui «non vi è dubbio che l’abrogazione di tale vaglio preventivo avrà l’effetto di modificare grandemente il quadro attuale posto che, come noto, il Garante aveva assunto negli ultimi anni un ruolo sempre più attivo quale autorità deputata a vagliare la rispondenza, specie in termini di proporzionalità, tra gli obiettivi della misura legislativa e le esigenze di tutela dei dati personali anche nel settore fiscale» (“Dati personali, Regolamento GDPR e indagini dell’Amministrazione finanziaria: un modello moderno di tutela dei diritti fondamentali?”, in Riv. dir. trib., 2022, I, p. 98).
Chiudi nota
133Artt. 32-33 D.P.R. n. 600/1973; artt. 51-52 D.P.R. n. 633/1972; artt. 12, Statuto dei diritti del contribuente (L. n. 212/2000), su cui – per tutti – S. Sammartino, “I diritti del contribuente nella fase delle verifiche fiscali”, in G. Marongiu (a cura di), Lo Statuto dei diritti del contribuente, Giappichelli, Torino, 2004, p. 125 ss.; D. Mazzagreco, I limiti all’attività impositiva nello Statuto dei diritti del contribuente, Giappichelli, Torino, 2011, p. 176 ss.
Chiudi nota
134L’art. 12, comma 1, dello Statuto, in ossequio all’art. 41, primo comma, Cost., impone, salvo casi eccezionali e urgenti, di effettuare accessi, ispezioni e verifiche fiscali «durante l’orario ordinario di esercizio delle attività e con modalità tali da arrecare la minore turbativa possibile allo svolgimento delle attività stesse nonché alle relazioni commerciali o professionali del contribuente».
Chiudi nota
136Pur dando atto delle potenzialità degli strumenti di advanced analytics a disposizione dell’A.F., evidenziano tale carenza e la necessità di codificare nuovi diritti pensati per il contesto digitale G. Ragucci, “L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”?”, cit.; L. Quarta, “L’impiego di sistemi di IA da parte di Amministrazioni finanziarie e agenzie fiscali. Interesse erariale versus privacy, trasparenza, proporzionalità e diritto di difesa”, in A.F. Uricchio-G. Riccio-U. Ruffolo (a cura di), Intelligenza Artificiale tra etica e diritti, Cacucci, Bari, 2020, p. 230 ss.; G. Ragucci, “Investigazioni fiscali tra strumenti informatici e mancanza di confini”, in Boll. trib., 2020, p. 335; F. Farri, “Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti”, in Riv. dir. trib., 2020, V, p. 137 ss., e N. Sartori, I limiti probatori nel processo tributario, Giappichelli, Torino, 2023, pp. 168-170.
Chiudi nota
139Fransoni G., Le indagini tributarie. Attività e poteri conoscitivi nel diritto tributario, cit., pp. 49-50. Per un’indagine sulla terminologia in uso per descrivere le azioni compiute dalla PA per conoscere determinati fatti, v., per tutti, F. Levi, L’attività conoscitiva della pubblica amministrazione, Giappichelli, Torino, 1967, p. 34.
Chiudi nota
141Si è già accennato – supra, nota 22 – alla possibilità di porre a base di un accertamento non solo dati estratti da banche dati della PA, ma anche raccolti da c.d. “fonti aperte” (siti web; social networkecc.). Nel descritto contesto normativo, non incontrerebbe particolari ostacoli la raccolta sistematica e l’analisi automatizzata di tali dati con software di “web scraping”, ad esempio per individuare evasori totali che pubblicizzino le proprie attività sul web o contribuenti il cui stile di vita ostentato sui social network non appaia giustificato dai redditi dichiarati. La Francia si è da poco dotata di una disposizione apposita per condurre questo genere di analisi (art. 154, Loi n° 1479 du 28 décembre 2019 de finances pour 2020) e l’Italia pianifica di fare altrettanto (MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit., pp. 34-37; Relazione sull’economia non osservata e sull’evasione fiscale e contributiva, cit., p. 127). Si badi, però, che il Conseil constitutionnel, con la Décision n° 2019-796 DC du 27 décembre 2019, ha appurato che tali software, pur attingendo a dati pubblicamente accessibili, possono comportare una restrizione del diritto al rispetto della vita privata e delle libertà di espressione e, devono, dunque, essere impiegati nei limiti dello stretto necessario per il perseguimento del (legittimo) scopo di contrasto all’evasione fiscale (§ 83). Il Consiglio ha dichiarato incostituzionale, per lesione del principio di proporzionalità, la previsione di utilizzo dello strumento qualora l’Amministrazione francese sia già a conoscenza dell’omessa presentazione della dichiarazione da parte di soggetti che vi sono tenuti (§ 94). Inoltre, nel giudicare proporzionata la restante disciplina, ha dato peso alla clausola di “intervento umano obbligatorio” nel procedimento di accertamento (§ 90). La pronuncia è commentata da J.M. Calderón-J.S. Ribeiro, “Fighting Tax Fraud through Artificial Intelligence Tools: Will the Fundamental Rights of Taxpayers Survive the Digital Transformation of Tax Administrations?”, in Eur. Tax., 2020, p. 235 ss.
Chiudi nota
143Quando si tratta di stimare un valore con una presunzione semplice non qualificata, l’operazione intellettiva, prettamente induttiva, è assimilabile a quella prevista dall’art. 1226 c.c. per la valutazione equitativa del danno: non dovendosi provare un fatto, non si tratta di “presunzioni” in senso proprio. In tal senso, F. Tesauro, Istituzioni di diritto tributario. Parte generale, cit., p. 398, e, più ampiamente, Id., “Le presunzioni nel processo tributario”, in Riv. dir. fin., 1986, I, p. 201 ss., e in A.E. Granelli (a cura di), Le presunzioni in materia tributaria. Atti del Convegno Nazionale di Rimini del 22-23 febbraio 1985, Maggioli, Rimini, 1987, p. 54 ss. Di diverso avviso, A. Marcheselli, Le presunzioni nel diritto tributario: dalle stime agli studi di settore, cit., pp. 232-233; A. Contrino, “Sugli accertamenti fiscali con prova a verosimiglianza attenuata”, in C. Glendi-G. Corasaniti-C. Corrado Oliva-P. De’ Capitani di Vimercate P. (a cura di), Per un nuovo ordinamento tributario, cit., p. 832 ss.
Chiudi nota
144MEF, “Relazione per orientare le azioni del Governo volte a ridurre l’evasione fiscale derivante da omessa fatturazione”, cit., p. 24 ss
Chiudi nota
145
Si è già constatato che esso è tutelato in base alla CEDU (art. 8), alla Carta di Nizza (artt. 7-8) e alla Convenzione del Consiglio d’Europa n. 108/1981 ed è attuato con il Regolamento europeo n. 679/2016 (GDPR) e, in Italia, con il D. Lgs. n. 196/2003. Tali discipline sovranazionali, oltre ad acquisire il rango di norme interposte ex art. 117 Cost., riflettono valori costituzionali veicolati dagli artt. 2, 13, 14 e 15 Cost., che la dottrina tende a ritenere espressivi di un «unico valore costituzionale rappresentato dalla protezione della persona nella sua integrità fisica e morale, nella sua proiezione spaziale e nel modo di relazionarsi con altri soggetti, così da garantire il libero e completo svolgimento della sua personalità» (S. Scagliarini, La riservatezza e i suoi limiti. Sul bilanciamento di un diritto preso troppo sul serio, Aracne, Roma, 2013, p. 108). Ne deriva che il diritto alla tutela dei dati personali non può essere sacrificato in nome di altri interessi di rilievo costituzionale (Corte cost., 21 febbraio 2019, n. 20), quale il dovere di contribuire alle spese pubbliche, dovendo invece essere con essi contemperato in base ai criteri di proporzionalità, pertinenza e non eccedenza nel trattamento, previsti dalla disciplina europea.
Nell’assetto costituzionale odierno, in seguito alla riforma del Titolo V della Costituzione repubblicana, che ha riformulato l’art. 117 Cost., la potestà legislativa deve essere esercitata nel rispetto, oltre che della Costituzione, dei vincoli derivanti dall’ordinamento comunitario e dagli obblighi internazionali. Secondo l’interpretazione della Corte costituzionale (cfr., a titolo esemplificativo, Corte cost., 24 ottobre 2007, nn. 348-349 la CEDU – acquista il rango di fonte interposta tra la Costituzione e la legge ordinaria, cosicché qualsiasi sua violazione da parte di una legge domestica potrebbe essere ritenuta incostituzionale ai sensi dell’art. 117, comma primo.
Chiudi nota
146Dei fatti e delle omissioni commessi con dolo o colpa grave, ex art. 1, Legge 14 gennaio 1994, n. 20.
Chiudi nota
147Afferma condivisibilmente N. Sartori che «[…] se l’algoritmo diviene un metodo di accertamento, cioè un modo in cui è raggiunta la prova della sussistenza di un maggiore reddito rispetto al dichiarato (c.d. accertamento algoritmico), è necessario che il diritto di difesa del contribuente sia pienamente garantito […] È insomma necessario che la prova algoritmica faccia parte della motivazione e sia giuridicamente comprensibile, senza necessità di essere compresa per il tramite di una consulenza tecnico-matematica» (I limiti probatori nel processo tributario, cit., p. 73). Si badi, poi, che, dinanzi a tecniche quali le reti neurali, neppure un esperto sarebbe in grado di ricostruire compiutamente il percorso logico di una decisione automatizzata.
Chiudi nota
148Altrettanto accadrebbe laddove il Garante per la privacy avallasse l’analisi automatizzata del contenuto delle fatture elettroniche nelle operazioni coi consumatori finali. Tali analisi replicano quelle tradizionalmente svolte dalle agenzie fiscali e possono contribuire, come si è visto, ad individuare soggetti che in realtà consumatori finali non sono e che invece svolgono surrettiziamente attività economiche abituali senza partita IVA. Esse potrebbero anche fornire dati utili agli Uffici per l’accertamento sintetico dei redditi delle persone fisiche. Tuttavia, mentre l’analisi sporadica del contenuto delle fatture elettroniche da parte dei funzionari non pare lesiva del diritto alla protezione dei dati personali (specie ove siano oscurati dati “sensibili” quali quelli per prestazioni sanitarie), la profilazione massiva delle abitudini di spesa dei contribuenti non pare proporzionata agli scopi perseguiti dall’istruttoria fiscale.
Chiudi nota
149È questa, invero, una problematica che si pone da anni nella fase di selezione dei contribuenti da controllare (M. Basilavecchia, “La tutela della riservatezza nelle indagini tributarie”, in Corr. trib., 2009, p. 3577 ss.), ma che è ora amplificata da due fattori: (i) l’utilizzo di tecnologie che elaborano quantità sempre maggiori di dati in un tempo sempre più breve; (ii) il labile confine fra l’attività di selezione e quella di controllo quando gli esiti della prima siano comunicati ai contribuenti in maniera automatizzata e massiva con le c.d. lettere di compliance.
Chiudi nota
150Art. 2-undecies, D. lgs. n. 196/2003, sulla scorta dell’art. 23, comma 1, lett. edel GDPR.
Chiudi nota
151
È la stessa percezione espressa da F. Paparella, “L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi”, in Riv. dir. trib., I, 2022, p. 644, secondo cui la «norma esprime un principio secondo il quale l’interesse pubblico alla prevenzione ed al contrasto all’evasione sarebbe sufficiente per travolgere, anche solo ai fini della generica attività di analisi del rischio, i diritti fondamentali in materia di privacy e le situazioni giuridiche soggettive del contribuente per periodi temporali che possono essere prolungati o indefiniti nel tempo».
Il pensiero corre inevitabilmente a Corte cost. 18 febbraio 1992, n. 51, con la quale si è negata copertura costituzionale al dovere di riserbo cui sono tenuti gli istituti bancari nei confronti di conti correnti, operazioni e posizioni degli utenti. In particolare, tale dovere è stato ritenuto strumentale alla sicurezza e al buon andamento dei traffici commerciali, senza che potesse corrispondervi una posizione giuridica soggettiva costituzionalmente protetta dei clienti, né un diritto della personalità. Non potevano, infatti, ravvisarsi «alla base del segreto bancario […] valori della persona umana da tutelare», ma «più semplicemente, istituzioni economiche e interessi patrimoniali, ai quali, secondo la giurisprudenza costante […], quel paradigma non è applicabile». La Corte ha però anche affermato però che «poiché in via di principio nessun documento o nessun dato, relativo agli utenti dei servizi bancari e detenuto confidenzialmente dalle banche, può essere sottratto ai poteri di accertamento degli uffici tributari, il significato sostanziale della norma di delega […] esaminata è quello di sottoporre tali poteri al principio di legalità, di modo che questi ultimi non possano essere svolti arbitrariamente e indiscriminatamente». Cfr., per tutti, Falsitta G., “Epicedio per il segreto bancario nei confronti del Fisco”, in Riv. dir. trib., 1992, II, p. 566 ss.; Viotto A., “Recenti modifiche normative in tema di accertamenti bancari: tra tutela del diritto alla riservatezza ed interesse generale alla repressione dell’evasione”, cit., p. 882.
Più di recente, segnali di recessività del diritto alla protezione dei dati al cospetto dell’interesse fiscale si colgono anche nella giurisprudenza sovranazionale. Cfr., in particolare, Corte Edu, 12 gennaio 2021, L.B. c. Ungheria, ricorso n. 36345/16, con la quale la Corte ha deciso che non lede la vita privata e familiare (art. 8 CEDU) la pubblicazione on line, da parte di un’amministrazione fiscale, di elenchi dei contribuenti inadempienti recanti, oltre al nome e al codice fiscale, l’indirizzo di residenza e l’importo dovuto, neppure se tali dati siano poi ripubblicati dai media per amplificare lo stigma della violazione. Per un commento, v. S.F. Cociani, “La pubblicazione in rete di un elenco di evasori fiscali, tra sanzioni improprie e privilegia fisci”, in http://diritti-cedu.unipg.it/, 30 novembre 2021, e A. Marinello, “Pubblicazione di dati personali dei contribuenti e rispetto della vita privata secondo la Corte EDU: la difficile ricerca di un equilibrio tra interesse fiscale e diritto alla riservatezza”, in Riv. dir. trib., 2022, IV, p. 12 ss. , e sia consentito rinviare a C. Francioso, “All’esame della corte EDU gli elenchi di evasori in rete per il controllo pubblico diffuso sul dovere tributario, in Tax News, 2022.
Altra pronuncia che manifesta la medesima tendenza – ma appare più bilanciata – è Corte giust., 24 febbraio 2022, «SS» SIA c. Valsts ieņēmumu dienests, C-175/20, secondo cui il GDPR non impedisce alle amministrazioni fiscali nazionali di obbligare i fornitori di servizi di annunci pubblicati su Internet a comunicarle informazioni relative ai contribuenti che abbiano pubblicato annunci sui loro portali, purché tali dati siano necessari rispetto alle finalità specifiche per le quali sono raccolti e il periodo oggetto della raccolta di detti dati non oltrepassi la durata strettamente necessaria per raggiungere l’obiettivo di interesse generale perseguito. Cfr. G. Pitruzzella, “Dati fiscali e diritti fondamentali”, in Dir. prat. trib., 2022, spec. pp. 673-774.
Venendo al tema, che qui più interessa, della legittimità di banche dati fiscali per il contrasto all’evasione e alla frode fiscale, la Corte di giustizia UE, pur confermando che i dati fiscali costituiscono dati personali provvisti di copertura ai sensi della Direttiva n. 95/46/CE (vigente ratione temporis), conclude che tale disciplina non osta all’inclusione di un contribuente – anche senza il suo consenso – in un elenco dei prestanome ai fini della riscossione delle imposte, a condizione che all’autorità procedente siano affidati compiti di interesse pubblico dalla normativa nazionale e che l’iscrizione sia effettivamente proporzionata e corroborata da elementi sufficienti per presumere che le persone interessate figurino a ragione in tale elenco (Corte giust., 27 settembre 2017, Puškár, C-73/16).
In lieve controtendenza, Corte giust., Grande sez., 22 novembre 2022, WM e Sovim c. Luxembourg Business Registers, cause riunite C-37/20 e C-601/20, ha constatato che l’accessibilità al pubblico, anche via Internet, delle informazioni sulla titolarità effettiva delle società costituite nel territorio degli Stati membri (in conformità alla c.d. “Direttiva antiricilaggio” n. 2015/849/UE) costituisce una grave ingerenza nei diritti fondamentali ex artt. 7-8 della Carta di Nizza, perché comporta gravi rischi per i soggetti iscritti (di rapimento, sequestro, violenze e morte), risultando dunque sproporzionata.
Chiudi nota
155Cons. Stato, Sez. VI, 8 aprile 2019, n. 2270; Id., Sez. VI, 13 dicembre 2019, n. 8472-8473-8474; Id., Sez. VI, 4 febbraio 2020, n. 881. Per diversi autorevoli commenti alle pronunce in questione, si rinvia ai riferimenti contenuti nella nota 14.
Chiudi nota
157Fra le tante, Cass., Sez. trib., 25 maggio 2012, n. 8333; Id., 3 febbraio 2017, n. 2872; Id., 5 maggio 2022, n. 14676.
Chiudi nota
158Cfr. rispettivamente, per le presunzioni semplici, gli artt. 38, comma 3, e art. 39, comma 1, lett. d, e per quelle c.d. “semplicissime”, l’art. 39, comma 2, D.P.R. n. 600/1973. Come osserva condivisibilmente S. Muleo, «Disposizioni siffatte hanno trovato una ragione storica nella limitatezza dei mezzi di ricerca della prova a disposizione dell’Amministrazione Finanziaria e nella correlata necessità contingente di ricorrere comunque a criteri di accertamento dei fatti anche solo parzialmente (ed ipoteticamente) affidabili. La loro permanenza nell’ordinamento tributario, in prospettiva de jure condendo, può quindi esser messa in discussione; […] l’ingigantimento dei poteri dell’Amministrazione Finanziaria può anche far dubitare della tenuta del sistema accertativo vigente» (“Riflessioni sull’onere della prova nel processo tributario”, in Riv. trim. dir. trib., 2021, p. 616, nota 43). Si veda, altresì, dello stesso Autore, “Il principio europeo dell’effettività della tutela e gli anacronismi delle presunzioni legali tributarie alla luce dei potenziamenti dei poteri istruttori dell’Amministrazione finanziaria”, cit., spec. p. 687, ove egli cita quale esempio di “ingigantimento dei poteri istruttori” dell’A.F. proprio l’obbligo di comunicazione delle movimentazioni bancarie imposto agli operatori finanziari all’Anagrafe tributaria, grazie al quale è stata nutrita la sezione contabile dell’Archivio dei rapporti finanziari, su cui oggi si svolgono le analisi automatizzate del rischio fiscale.
Chiudi nota
159Sugli spazi di difesa a fronte di presunzioni semplici, v. F. Tesauro, Istituzioni di diritto tributario. Parte generale, cit., p. 398.
Chiudi nota
160Nel caso olandese cui si è accennato supra, § 3.3, era palesemente irrilevante il dato sulle origini straniere dei genitori, in condizioni svantaggiate, beneficiari dei rimborsi per l’iscrizione dei figli alla scuola dell’infanzia. Tuttavia, poiché tale dato non è stato espunto dal dataset di analisi, in virtù di correlazioni fallaci, il sistema algoritmico ha classificato i genitori di origine straniera come indebiti percettori, probabilmente perché addestrato sulla base di accertamenti passati di frodi commesse prevalentemente da soggetti stranieri. Di tale esperienza occorre fare tesoro per prevenire accertamenti non solo errati nel merito, ma anche discriminatori negli effetti.
Chiudi nota
161Comma 5-bis, art. 7, D. Lgs. 31 dicembre 1992, n. 546, introdotto ad opera dell’art. 6, Legge 31 agosto 2022, n. 130, su cui cfr. P. Coppola, “Nel processo l’onere della prova spetta al Fisco. Il giudice annulla se la prova non c’è”, in Il Sole 24 ore focus, 15 settembre 2022; E. della Valle, “La “nuova” disciplina dell’onere della prova nel rito tributario”, in Il fisco, 2022, p. 3807 ss.; S. Muleo, “Le “nuove” regole sulla prova nel processo tributario”, in Giustizia insieme, 20 settembre 2022; Id., “Onere della prova, disponibilità e valutazione delle prove nel processo tributario rivisitato”, in A. Carinci-F. Pistolesi (a cura di), La riforma della giustizia e del processo tributario, Giuffrè, Milano, 2023, p. 83 ss.
Chiudi nota
162In questa sede abbiamo inteso concentrare l’attenzione sulle applicazioni dell’intelligenza artificiale nell’istruttoria tributaria, ma non mancano autorevoli studi sui rischi e le opportunità di un suo impiego nel processo tributario. Cfr. C. Sacchetto, “Processo tributario telematico e giustizia predittiva in ambito fiscale”, in Rass. trib., 2020, p. 41 ss.; S. Dorigo, “Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi “intelligenti” tra funzione amministrativa e attività giurisdizionale”, cit.; M. Versiglioni, “Algoritmo per creare o applicare il diritto? Rischi di una giustizia robotizzata”, cit.; Id., Diritto matematico-mv, cit.; G. Melis, “Sull’uso della tecnologia predittiva applicata ai precedenti nel processo tributario: note minime sul PNRR e a margine di una recente sentenza…”, in Inn. dir., 2021, fasc. 3, p. 83 ss.; F. Farri, “La giustizia predittiva in materia tributaria”, in Riv. tel. dir. trib., 12 ottobre 2022; A. Marcheselli, “Intelligenza artificiale e giustizia predittiva: il bivio tra Giustiniano e il Leviatano e il pericolo Coca Cola”, in Riv. tel. dir. trib., 20 ottobre 2022; E. Marello, “Popper, “PRODIGIT” e giustizia predittiva”, in Riv. tel. dir. trib., 24 ottobre 2022; A. Fidelangeli-F. Galli, “The Use of AI Technologies in the Tax Law Domain: an Interdisciplinary Analysis”, in Dir. prat. trib. int., 2022, spec. p. 149 ss. V. altresì, nell’ambito del Consiglio d’Europa, Commissione europea per l’efficienza della giustizia, “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, 3-4 dicembre 2018.
Chiudi nota
163G. Pitruzzella, “Dati fiscali e diritti fondamentali”, cit., spec. pp. 666-667. In tal senso, cfr. altresì F. Farri, “Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti”, in Riv. dir. trib., 2020, V, p. 121 ss.
Chiudi nota
164Provvedimento del Garante per la protezione dei dati personali, 22 dicembre 2021, n. 453, § 3. Nel diverso ambito delle prestazioni pubbliche assistenziali, che condivide con quello fiscale l'esigenza di sondare grandi quantità di dati alla ricerca di indici di frode, il Garante ha censurato l'utilizzo da parte dell'INPS di un software di data mining per il mancato rispetto delle garanzie previste per il trattamento di dati sensibili (ordinanza ingiunzione del 29 novembre 2018, n. 492). Tale programma attribuiva in modo automatico un punteggio ai certificati medici prodotti dai lavoratori al fine di indirizzare in modo mirato e più efficiente il sistema dei controlli medico legali (sulla base principalmente della frequenza e della durata delle malattie). Il Tribunale di Roma, confermando il provvedimento del Garante, ha evidenziato che, pur trattandosi di un'«operazione di raccolta di dati, prodromica al controllo ed indubbiamente funzionale ad una sua maggiore efficienza», l'Istituto avrebbe dovuto adottare maggiori cautele nelle attività di profilazione e attivare un confronto preventivo col Garante (sent., sez. civ. XVIII, 3 marzo 2020, n. 4609). Non si era, infatti, al cospetto di «una mera selezione degli individui sulla base delle loro caratteristiche reali», bensì di «un’effettiva profilazione, nella misura in cui, sulla base di inferenze statistiche, [si realizzava] una prognosi comportamentale, che in quanto fondata su un calcolo probabilistico è sempre soggetta a un margine di errore e per questo necessita di garanzie adeguate per evitare false attribuzioni e valutazioni erronee dei comportamenti individuali» (Audizione di Antonello Soro, Presidente del Garante per la protezione dei dati personali, presso la 11ª Commissione permanente del Senato della Repubblica, 18 settembre 2018).
Chiudi nota
165Infine, sempre sul fronte qualitativo, è auspicabile che il contribuente possa verificare periodicamente l’esattezza dei propri dati a disposizione dell’A.F. e proporre istanza di rettifica in caso di errori (naturalmente solo nelle circostanze in cui il diritto di rettifica, previsto dal GDPR, non si presti ad aggirare od ostacolare i controlli fiscali).
Chiudi nota
167Attraverso il diritto di accesso o con altre forme. In questa direzione, si collocano i servizi gratuiti di messa a disposizione dei contribuenti di dati precompilati a fini dichiarativi e nel “sistema ISA”, nonché i servizi di conservazione delle fatture elettroniche. Peraltro, in una direttiva dell’“Atto di indirizzo per il conseguimento degli obiettivi di politica fiscale per gli anni 2022-2024” cit., si legge che «L’Amministrazione finanziaria dovrà organizzarsi in modo da mettere progressivamente a disposizione dei contribuenti tutte le informazioni contenute nelle banche dati della pubblica amministrazione utili ai fini dell’assolvimento degli obblighi fiscali»
Chiudi nota
168In particolare, si è lamentato il fatto che la bozza di Regolamento europeo sull’intelligenza artificiale liquidi, senza le opportune distinzioni, i metodi impiegati dalle amministrazioni tributarie come sistemi “a basso rischio” per gli utenti e che, dunque, non imponga il rispetto di standard di qualità elevata dei dati, tracciabilità, trasparenza, sorveglianza umana, precisione e robustezza (Comunicazione della Commissione europea del 21 aprile 2021, COM(2021) 206).
Chiudi nota
169V. supra, § 2.2 e spec. note 44 e 98, per il confronto in tal senso fra random forests, alberi decisionali e reti neurali.
Chiudi nota
170Auspicano la valorizzazione del contraddittorio procedimentale a seguito dell’analisi del rischio automatizzata S. Dorigo, “Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi “intelligenti” tra funzione amministrativa e attività giurisdizionale”, in Id. (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, cit., pp. 137-138, e in Rass. trib., 2019, pp. 746-747, e G. Ragucci, “L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”?”, cit.
Chiudi nota
171Cass., Sez. un., 18 dicembre 2009, n. 26638. Per i riferimenti delle note a sentenza, v., infra, nota 72.
Chiudi nota