Il valore dei dati è centrale per l’intera economia digitale, non solo per i sistemi di intelligenza artificiale (IA). Tuttavia, ha ricadute significative anche per questi ultimi, come dimostra la cronaca recente: a dicembre 2023 il “New York Times” ha fatto causa a OpenAI, produttrice di ChatGpt, e a Microsoft, che sulla prima ha investito ingenti capitali. L’oggetto del contendere sono proprio i dati: nello specifico, decine di migliaia di articoli del “Times”, usati come base dati per addestrare ChatGpt senza autorizzazione, in violazione della normativa sul copyright – secondo quanto sostiene il quotidiano. Con l’aggravante che i sistemi così allenati si pongono in diretta concorrenza proprio coi media tradizionali: sia perché usati da vari siti di informazione per produrre articoli giornalistici a basso costo, sia perché direttamente consultati dagli utenti per farsi raccontare cosa è successo oggi nel mondo. Dal punto di vista di chi ha intentato la causa, si tratta di un tentativo di “sfruttare gratuitamente l’enorme investimento fatto dal ‘Times’ sul suo giornalismo”, giacché “non vi è nulla di trasformativo nell’usare i contenuti del ‘Times’ senza pagarli per creare prodotti sostitutivi e sottrarre lettori”.

Non si tratta della prima causa di questo genere: in passato, obiezioni analoghe sono state sollevate da scrittori (David Baldacci, Jonathan Franzen, John Grisham, Scott Turow) e persino da comici (Sarah Silverman). Il tema è sempre lo stesso: l’utilizzo non autorizzato e non chiaramente regolamentato di prodotti dell’ingegno per addestrare programmi che sapranno poi realizzare automaticamente prodotti analoghi, in quantità industriali, con estrema rapidità e a costi ridotti. Da queste azioni legali emergono chiaramente due temi, interconnessi ma distinti: da un lato la protezione dei dati, dall’altro la necessità di ridiscutere la distribuzione del valore economico che tali dati generano.

Il primo aspetto costituisce la motivazione fondamentale del Regolamento generale per la protezione dei dati dell’Ue (il famoso Gdpr, dall’acronimo del nome inglese), approvato nel 2016 e in vigore dal 2018: l’obiettivo è assicurare che gli utenti siano pienamente consapevoli di quali dati stanno condividendo durante le proprie peregrinazioni digitali, e sia loro consentito di rifiutare il consenso alla raccolta e all’uso di tali dati, come pure di richiederne la cancellazione a posteriori. Si tratta di diritti fondamentali, la cui tutela non può essere lasciata ai privati, giacché le multinazionali della tecnologia hanno tutto l’interesse a ottenere carta bianca su raccolta e uso dei dati dei propri utenti. Da questo punto di vista, con il Gdpr e con altri atti conseguenti, quali il Data Governance Act del 2022, l’Ue si è proposta come esempio da seguire a livello internazionale, nel difficile compito di regolamentare processi che avvengono, per loro stessa natura, a livello sovranazionale (sul tema, è molto utile Giusella Finocchiaro, Intelligenza Artificiale. Quali regole?, Il Mulino, 2024).

Altrettanto importante, però, è la distribuzione del valore economico dei dati. Qui il punto non è proibirne o limitarne l’uso, quanto assicurare che i conseguenti benefici siano spartiti in modo equo. In particolare, bisogna impedire che il valore aggiunto prodotto dall’elaborazione dei dati finisca esclusivamente nelle tasche di pochi attori privati (ciò che avviene al momento), e garantire invece che i fornitori primari di dati vengano adeguatamente compensati. Si tratta, insomma, di passare dall’attuale situazione di colonizzazione selvaggia dei dati, secondo l’efficace analogia di Nick Couldry e Ulises Mejias (Il prezzo della connessione, Il Mulino, 2022), a un sistema in cui gli utenti, in quanto possessori di materia prima pregiata (i loro dati), smettono di elargirli gratis in cambio di specchietti e gingilli (l’uso delle piattaforme digitali su cui tali dati vengono raccolti) e pretendono invece una congrua contropartita. Su questo, esistono due approcci: uno privatistico, che è quello dei dividendi sui dati (data dividends), e un altro collettivistico, che è quello della tassazione dei servizi digitali (digital services tax).

Bisogna impedire che il valore aggiunto prodotto dall’elaborazione dei dati finisca esclusivamente nelle tasche di pochi attori privati

Il primo ha origine nel 2019 negli Stati Uniti, da una proposta del governatore della California Gavin Newsom (democratico): si riduce il problema a una transazione fra privati, l’utente e l’azienda a cui fornisce i dati, e si immaginano modi di calcolare con precisione il valore di tali dati, in modo da farsi pagare di conseguenza. Secondo uno slogan caro ai proponenti di questo approccio, “get privacy and get paid!”. Sulla carta suona bene, ma si scontra con due grossi ostacoli: da un lato, non è facile stimare in modo puntuale il valore dei dati forniti dal singolo utente, giacché dipende da elaborazioni successive e fattori contestuali, spesso ignoti a priori; d’altro canto, anche risalire ex post ai singoli utenti, per assegnare a ciascuno il giusto compenso sulla base dei rendimenti successivamente prodotti dai dati in forma aggregata, presenta difficoltà tecniche difficilmente sormontabili. Di conseguenza, finora i dividendi sui dati non hanno trovato applicazione concreta nei sistemi legislativi di alcun Paese, e tentativi di realizzarne la filosofia tramite prodotti commerciali sono confinati a iniziative di nicchia: è il caso di Gener8, un browser che promette di tenere traccia dei dati forniti dagli utenti ai siti che visitano e convertirli in valore monetario, da incassare come crediti per attività online. Oltre a presentare limiti di utilizzo, non è chiaro se simili proposte commerciali siano veramente progettate a favore degli utenti, oppure sfruttino il tema per cercare di ritagliarsi spazio in un mercato fortemente monopolistico come quello dei browser; tentativo destinato quasi sicuramente a fallire, visto l’incontestato predominio di Google in tale ambito.

Appare invece molto più promettente l’approccio collettivistico, basato sulla tassazione delle multinazionali della tecnologia. Il principio è semplice: poiché i rendimenti di tali aziende si basano sull’utilizzo di dati raccolti a livello sovranazionale, è giusto che i vari Paesi coinvolti in questa gigantesca operazione di “estrazione di risorse” siano compensati, attraverso il pagamento di tasse. In particolare, l’imposta sarà commisurata da un lato ai guadagni realizzati dall’azienda usando quei dati, dall’altro al numero di utenti (e quindi alla mole di dati estratti) in quel particolare Paese. La tassazione dei servizi digitali è già legge, o in corso di approvazione, in 38 Stati, inclusa l’Italia, dove l’imposta è stata introdotta dalla legge di bilancio del 2019: anche su questo, l’Ue si propone come avanguardia in un tentativo di regolamentare il settore, giacché proprio in Europa tale soluzione è particolarmente diffusa.

Nel valutare l’impatto dei due diversi approcci, giova considerare le reazioni delle multinazionali: le quali non hanno alcuna obiezione rispetto ai dividendi sui dati, mentre detestano profondamente le imposte sui servizi digitali. Un cinico direbbe che questa è la miglior prova dell’efficacia della seconda strategia, e avrebbe ragione. I dividendi sui dati, a oggi, non funzionano; la tassazione dei servizi digitali, invece, sì. Tanto basta a spiegare le differenti reazioni da parte di chi deve pagare dazio. Né è casuale la distribuzione geografica dei due approcci: i dividendi sui dati nascono e si sviluppano soprattutto negli Stati Uniti, dove hanno sede principale, dunque maggiore influenza, molte delle aziende i cui profitti si intenderebbe ridistribuire; viceversa, i Paesi che hanno adottato l’imposta sui servizi digitali, come molti di quelli europei, tendono a non avere interessi aziendali diretti, a livello nazionale, nei settori oggetto di tassazione.

La tassazione dei servizi digitali è già legge, o in corso di approvazione, in 38 Stati, inclusa l’Italia, dove l’imposta è stata introdotta dalla legge di bilancio del 2019

Tali imposte sono dunque al centro di negoziazioni internazionali, talvolta tese: una di queste si consuma dal 2015 all’interno dell’Organizzazione per la cooperazione e lo sviluppo economico (Ocse), relativamente al cosiddetto “Pilastro Uno” (Pillar One) per una redistribuzione più equa dei profitti e dei diritti fiscali fra Paesi diversi rispetto alle multinazionali, incluse le aziende del digitale. Mentre finora la tassazione dei servizi digitali è stata decisa a livello nazionale, la proposta è quella di arrivare a una soluzione globale, che soddisfi tutti: senonché questo può tradursi in esiti molto diversi, che vanno da una sostanziale neutralizzazione delle attuali imposte nazionali a una loro estensione a livello globale, tutelando anche i molti Paesi che per ora ne restano esclusi. Scenari del primo tipo sono naturalmente più graditi alle multinazionali e ai Paesi dove esse hanno sede, il che spiega perché le negoziazioni procedano a rilento.

Rispetto al particolare uso dei dati che fanno le IA generative, la tassazione rappresenta l’unica strada realistica per garantire una redistribuzione equa del valore così generato: valore che sarà astronomico, se i dati sul Nasdaq del 2023 sono un buon indicatore (+44% su base annua, con punte di crescita oltre il 150% per aziende di IA). L’AI Act appena approvato dal Parlamento europeo, che entrerà in vigore nel 2026 e di cui si è parlato anche su questa rivista, vincola alla normativa sul copyright l’uso di dati da parte di programmi di IA generativa: il che però non necessariamente risolve il problema, giacché rimane dibattuto se usare i dati per addestrare questi sistemi costituisca o meno violazione del copyright. Soprattutto, le normative nazionali sulla tassazione dei servizi digitali andranno aggiornate, poiché rischiano di non contemplare la fattispecie dell’uso dei dati da parte di IA generative. L’imposta italiana, per esempio, non prevede al momento l’addestramento di sistemi informatici su dati prodotti dagli utenti come uno dei casi che giustificano la tassazione dell’azienda, il che consentirebbe a operatori come OpenAI di aggirare completamente la norma. Un esito da scongiurare, se vogliamo evitare che l’IA generativa prolunghi ulteriormente il nostro status di vittime del colonialismo digitale.