Sistemi intelligenti (ancorché artificiali), oracoliallucinazioni, incantesimi… nel pamphlet di Giusella Finocchiaro (Intelligenza artificiale. Quali regole?, Il Mulino, 2024) si avverte da subito il lettore dell’inganno lessicale che si cela dietro questi lemmi. Ricorrendo al lessico del mito più che a quello specialistico, le parole adoperate per riferirsi alle dirompenti (disruptive) innovazioni digitali fortificano il pregiudizio attraverso il quale approcciamo queste tecnologie.

Invero, i termini evocati nell’ampio contesto dell’intelligenza artificiale richiamano antiche paure radicate nella tradizione più che nella innovazione. Si tratta del perenne timore della creatura che sfugge al suo creatore, una narrazione che ha attraversato secoli e continenti, dal Golem della cabala ebraica – fortissimo gigante di argilla, incapace di provare emozioni – sino al Frankestein di Shelley (1818). Ma sono gli anni Cinquanta del secolo appena trascorso la «stagione d’oro» per questa narrativa, cui ancora oggi volgere lo sguardo per trarre spunti sul presente. È il periodo in cui Asimov elabora le tre leggi della robotica, un’anticipazione del tema del cosiddetto Human in the loop, ovvero dell’uomo che non perde il controllo sul dispositivo, al centro persino del primo discorso di un pontefice al G7: «Nessuna macchina dovrebbe mai avere il potere di decidere se togliere la vita a un essere umano». Vale la pena rammentarle, dette leggi, ancora così attuali:

«1) Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno; 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge; 3) Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge».

Più importante ancora, nel 1950 Turing pubblica Computing Machinery and Intelligence, un Imitation Game in cui una persona deve intuire, sulla base delle repliche a domande poste per iscritto, se il proprio interlocutore è un essere umano oppure un computer. A ben vedere il superamento del cosiddetto «test di Turing» rappresenta ancora oggi uno degli obiettivi dei sistemi di linguaggio generativo, come ChatGpt. Se questa tecnologia produce risultati talvolta del tutto immaginari non è dunque a causa di allucinazioni, ma perché lo scopo è appunto quello… di apparire credibile, indistinguibile dall’artefatto umano. Ha fatto scalpore, di recente, il caso Schwartz: un avvocato divenuto celebre per avere depositato una memoria redatta da ChatGpt in cui i precedenti, ineccepibilmente richiamati nell’atto con tutti i criteri formali (data del provvedimento, nome delle parti, ecc.), erano del tutto inventati.

Ha ragione Finocchiaro a suggerire di sostituire l’espressione “intelligenza”, con la quale si “antropomorfizza il discorso”, con “machine learning, cioè un sistema di apprendimento automatico basato sull’utilizzo dei dati”

Ha dunque ragione Finocchiaro a suggerire di sostituire l’espressione «intelligenza», con la quale si «antropomorfizza il discorso», con «machine learning, cioè un sistema di apprendimento automatico basato sull’utilizzo dei dati». Ma c’è chi, come Bender, si spinge più in là, evocando addirittura la metafora dei «pappagalli stocastici»: modelli capaci di generare linguaggio senza comprendere il senso. In fondo, come Floridi ricordava, citando Dijkstra: «chiedersi se un computer possa pensare è tanto interessante quanto chiedersi se un sottomarino possa nuotare».

Ciò premesso, appare evidente come tali sistemi manifestano un potenziale smisurato perché adattabile a ogni possibile scopo. Esprimono così, nelle luminose parole di Severino riportate da Finocchiaro, il «destino della tecnica», ovvero quello «di avere come scopi il non privarsi della capacità di realizzare qualsiasi scopo».

In che misura questo incida sull’esperienza giuridica, fondata su concetti come soggettività, attribuzione e responsabilità, appare evidente. Agendo attraverso reti neurali, tali tecnologie sovvertono il classico paradigma di causalità (if-this-then-that) per il quale è possibile risalire alle ragioni della scelta e alla conseguente imputazione delle responsabilità. A fronte di tale trasformazione, il giurista armato dei soli strumenti tradizionali può trovarsi facilmente disorientato, se non del tutto smarrito in un (cyber-)spazio di unknown unknowns, in cui non soltanto non si è a conoscenza, ma non si è nemmeno a conoscenza di cosa non si è a conoscenza.

Eppure, questo disorientamento non può, e soprattutto non deve tradursi in un arretramento sul fronte della necessità di regole, ancorché detta esigenza debba essere bilanciata con la libertà di ricerca e di impresa (non a caso uno dei pilastri della regolazione dell’Unione europea in tema, il cosiddetto Gdpr, ha per nome esteso «regolamento relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati»).

Nella condivisibile prospettiva adottata da Finocchiaro, interpretare correttamente tale richiesta consiste innanzitutto nell’individuare le domande giuste. Queste devono specificare cosa si intende regolare e come si intende farlo.

È questa, a parere di chi scrive, la parte più interessante dell’agile volume, la cui lettura è certamente raccomandata come introduzione al tema generale. In pochi e brevi capitoli, adottando una prospettiva larga accompagnata da esempi concreti (chi è il responsabile delle auto a guida autonoma? A chi attribuire la paternità delle opere d’arte create dall’intelligenza artificiale?) si delineano gli orizzonti problematici delle trasformazioni in atto.

Cosa si vuole regolare, innanzitutto? L’intelligenza artificiale… nel suo complesso, secondo un modello orizzontale, oppure alcune specifiche applicazioni, secondo «silos» verticali (l’intelligenza artificiale in campo medico, in campo finanziario ecc.)?

E come si intende regolarla? Attraverso norme, già formate o di nuova formazione, oppure attraverso princìpi? E posti da quali autorità: nazionali? internazionali? adottati direttamente dalle imprese?

Adottando una prospettiva larga accompagnata da esempi concreti si delineano gli orizzonti problematici delle trasformazioni in atto

Chiarire questi aspetti, significa comprendere in quale direzione orientare gli sforzi per gli anni a venire, e tra le numerose suggestioni che il breve volume evoca su questo fronte, sia concesso rammentarne due, riferibili, appunto, all’oggetto e alle modalità.

Cominciando dal cosa, Finocchiaro osserva preliminarmente come l’Artificial Intelligence Act è volto a regolare orizzontalmente ogni ricorso all’intelligenza artificiale con riferimento all’Unione europea. Ciò nonostante, esso «finisce poi col disciplinare specifiche applicazioni». In altri termini, è l’inclusione della singola attività all’interno di ciascuna classe di rischio, secondo un approccio top-down, verticale, ad assumere importanza capitale e sulla quale, in futuro, occorrerà vigilare. Dette classi sono quattro e prevedono sinteticamente che: (1) se il rischio è inaccettabile, il ricorso all’intelligenza artificiale è vietato (come nel caso del cosiddetto social scoring o dell’identificazione biometrica in tempo reale in luoghi pubblici, incluso il riconoscimento facciale, salvo eccezioni riferibili per lo più a esigenze di sicurezza); 2) se il rischio è alto, occorrono stringenti limiti e condizioni (come per la chirurgia assistita da robot, o come per la valutazione delle priorità in caso di richiesta di intervento di polizia o di vigili del fuoco; il ricco elenco di attività è incluso in un allegato modificabile dalla Commissione Ue); 3) se il rischio è limitato, basta adempiere a obblighi di trasparenza (come nel caso dei chatbox che non devono «fingersi» umani); e infine 4) se il rischio è minimo o nullo, non sopravvengono limitazioni (come nel caso dei filtri antispam).

Ma anche il tema del come regolare offre al lettore interessanti spunti, in particolare quando l’autrice osserva che per disciplinare l’intelligenza artificiale in modo generale occorre «passare dalle regole ai princìpi». Questi ultimi, a differenza delle prime, sono caratterizzati da una maggiore ampiezza e flessibilità. Ne sono esempi i princìpi di trasparenza, di non discriminazione, di sorveglianza umana ecc., molti dei quali adoperati finanche nei codici di condotta adottati dalle imprese. È il caso, tra i tanti, dell’Oversight Board di Meta, un Comitato di esperti incaricato di riconsiderare in modo indipendente, sulla base di princìpi condivisi – e in parte ispirati al diritto internazionale – cosa mostrare e cosa censurare su Facebook, Instagram e Threads, piattaforme social che registrano nel complesso più di tre miliardi di utenti (attivi), quasi la metà della popolazione mondiale.

La sfida, come si comprende, è tra le più impegnative, e richiede una risposta sovranazionale, dal momento che solo il coordinamento tra Stati, e tra Stati e organizzazioni internazionali, può offrire risposte soddisfacenti alla domanda regolatoria.

L’alternativa è restare inerti, magari suggestionati da timori apocalittici (non a caso nel testo si rammenta Apocalittici e integrati, di Echiana memoria). Come in The Answer, un fulminante racconto di Brown sempre degli anni Cinquanta (1954), dove in appena mezza pagina si immagina il momento in cui, «con gesti lenti e solenni» si provvede alla saldatura degli ultimi due fili che collegano «i giganteschi calcolatori elettronici di tutti i pianeti abitati dell’Universo […] un’unica macchina cibernetica racchiudente tutto il sapere di tutte le galassie». Di fronte all’onore del primo interrogativo, il protagonista ne sceglie uno che nessuna macchina cibernetica aveva potuto esaudire sino a quel momento. «“C’è Dio?”. L’immensa voce rispose senza esitazione, senza il minimo crepitio di valvole o condensatori. “Sì: adesso, c’è”».