Una rivoluzione tecnologica, come quella in corso dell’intelligenza artificiale (IA), necessita di una normativa che contribuisca a cogliere e sviluppare al meglio le opportunità che essa porta e a minimizzare i rischi e i pericoli che da sempre accompagnano l’introduzione di nuove tecnologie nella società. Essendo ormai l’IA utilizzata ovunque, gli strumenti per governarla devono essere costruiti in modo corale da esperti in ogni disciplina.
Un’impresa del genere presenta delle difficoltà di origini diverse, tra cui quelle dovute alla sua velocità di crescita, al suo ambito globale e al fatto che occorre regolare senza soffocare. C’è poi la peculiare difficoltà che deriva dalla sua pressoché unica innovatività tecnica la cui natura è conosciuta ancora da pochi. È su questo punto che vogliamo concentrarci.
Una rivoluzione simile è stata quella industriale che ha introdotto l’uso del motore. Uno strumento che ha permesso all’uomo delle società moderne di poter disporre di una quantità di energia centinaia di volte più grande di quella che aveva prima dell’Ottocento. Esso ha amplificato a dismisura la nostra potenza muscolare. Semplificando si usa dire che oggi la qualità della vita è paragonabile, in molte cose persino superiore, a quella degli antichi re. Quella rivoluzione non è venuta senza pericoli o rischi. Di alcuni di essi, e dei danni che abbiamo fatto, abbiamo raggiunto consapevolezza solo di recente e cerchiamo di correre ai ripari sperando che non sia troppo tardi.
Per comprendere la necessità di disciplinare l’utilizzo di tecnologie rivoluzionare partiamo da un esempio semplice relativo all’uso del motore. Quando la mobilità umana si basava sul camminare, il rischio di andare a sbattere con qualcuno era piccolo e in caso di urto il pericolo era trascurabile. Oggi invece, viaggiando già a settanta chilometri orari portiamo con noi un’energia duecento volte più grande di quella con cui camminiamo. Questa energia, a cui nessuno pensa di rinunciare dato che ci fa comodo per accorciare i tempi, ci espone a rischi e pericoli che, con un lungo processo storico di adattamento sociale, economico e giuridico abbiamo in parte mitigato e regolato: le strade a percorribilità veloce, il codice stradale, la patente e le assicurazioni obbligatorie per coprire eventuali danni.
Una rivoluzione simile a quella dell’IA è stata quella industriale che ha introdotto l’uso del motore. Uno strumento che ha amplificato a dismisura la nostra potenza muscolare
Questo corpus di regole è poggiato, da sempre, sulla distinzione tra l’essere umano che è l’agente, e la macchina che è il suo strumento. L’agente detiene la responsabilità dell’uso della macchina e dei suoi esiti, la macchina deve essere ben funzionante secondo le modalità previste e per questa ragione deve ottenere una certificazione da autorità opportune. Certificare una bicicletta è semplice, farlo con macchine più complesse come un’automobile o un aereo lo è di meno ma rimane comunque fattibile. Nella seconda metà del secolo scorso, quando il software ha cominciato a essere parte integrante di aerei prima e automobili poi, la certificabilità è stata estesa ad esso senza troppi problemi. Il controllo e la successiva certificazione delle linee di codice del programma che garantisce che due aerei in cielo non si scontrino o di quello che assiste la frenata della nostra automobile sono procedure laboriose ma fattibili.
Un primo punto che vogliamo sottolineare è che lo schema normativo che abbiamo appena descritto, che si articola nel binomio responsabilità-certificazione non è più adatto a contenere la nuova tecnologia di apprendimento automatico profondo che ha già portato a risultati come il riconoscimento delle immagini e a meraviglie come ChatGpt.
La ragione di questa inadeguatezza è presto spiegata. I programmi dell’informatica classica sono scritti da un programmatore umano e contengono, se ci è concesso esprimerci gettando il cuore oltre l’ostacolo, la stessa intelligenza che gli è stata data da quello. Per queste loro caratteristiche essi possono essere analizzati e compresi riga per riga come facciamo con un orologio smontandolo pezzo per pezzo o come facciamo eseguendo una somma di frazioni. Il funzionamento delle reti neurali della moderna intelligenza artificiale invece è profondamente, radicalmente diverso perché imita i processi biologici del cervello e non le sue facoltà logiche superiori. In questo caso il programmatore non scrive il programma finale. Al suo posto ne scrive uno preliminare che ha il compito di trovare, in fase di addestramento, centinaia di miliardi di parametri a partire da un enorme database. Da tante fotografie di nei della pelle classificati dai dermatologi per esempio, il programma impara a distinguere quelli benigni da quelli maligni, dalla lettura di testi impara a dialogare con gli umani. Non è superfluo ricordare che nessun programmatore sa scrivere esplicitamente a mano un codice che faccia queste operazioni. In altre parole l’intelligenza che la rete neurale ha dopo la fase di addestramento non è più solo quella che le abbiamo insegnato noi. La macchina è andata oltre, ha sintetizzato una conoscenza nuova deducendola dal database che era informazione cruda. Questa sintesi di conoscenza a partire da informazione grezza è ancora solo agli albori ma, dalla velocità con cui la rivoluzione IA cresce, è lecito aspettarsi che possa presto amplificare di ordini di grandezza quella prodotta direttamente dall’uomo. Questa amplificazione, come fu per quella dell’energia, porta enormi opportunità ma anche rischi e pericoli che dobbiamo mitigare.
Il problema sorge quando vogliamo certificare questi strumenti. Il loro test non può essere fatto all’antica cioè analizzando il codice finale. Esaminandolo infatti vediamo solo il valore numerico di centinaia di miliardi di parametri, il primo vale 1,28, il secondo 2,45, il terzo -0,85 e così via fino al duecento-miliardesimo. Ma quei valori, presi singolarmente, non ci dicono nulla sull’esito del calcolo che la macchina eseguirà, nulla sul perché ChatGpt parla in modo così verosimile ma a volte dice cose sbagliate. I principi scientifici di questa tecnologia rimangono elusivi anche agli addetti tecnici ai lavori, così come accadde ai meccanici che costruivano motori nell’Ottocento prima dell’arrivo della termodinamica. Per il momento quindi, anche a causa dell’ancora mancante spiegabilità di questa tecnologia e della sua dipendenza dai database di addestramento, non abbiamo alcun modo per certificare il programma in senso standard, cioè come abbiamo certificato le macchine sino a questo punto della nostra storia, ulteriore segnale questo che siamo di fronte a una rivoluzione.
La scienza sta facendo progressi per raggiungere la tecnologia e darne una spiegazione, ma questa non si ferma ad aspettarla
Ovviamente la scienza sta facendo progressi per raggiungere la tecnologia e darne una spiegazione, ma questa non si ferma ad aspettarla. La sua diffusione infatti avviene sotto la pressione dei vantaggi che essa porta e degli interessi economici che ne seguono. Capire l’IA è quindi un tema di ricerca in pieno sviluppo tanto per le scienze dure, quanto disciplinarla lo è per le scienze giuridiche, quelle etiche etc. Tutte le scienze devono partire da una presa d’atto: le nuove macchine dell’IA non sono semplici strumenti, perché hanno una intelligenza loro che, sebbene solo embrionale e diversa da quella umana risulta, tanto come quella, non certificabile in senso classico.
Di fronte a una rivoluzione dobbiamo cambiare la nostra prospettiva in modo rivoluzionario e considerare queste macchine come nuovi agenti che interagiscono con l’uomo, tra loro e con le macchine propriamente dette. Dal binomio uomo-macchina dobbiamo passare a un nuovo ecosistema uomo-IA-macchina e di esso abbiamo una esperienza ancora molto limitata. Mentre siamo abituati alle complesse e affascinanti relazioni tra esseri umani e sappiamo guidare le macchine con la nostra responsabilità e la loro certificazione, dobbiamo ancora capire la natura delle relazioni con la nuova intrusa, tra IA e noi, tra IA e le macchine nella moderna robotica e presto dovremo pensare anche a come gestire le relazioni tra le varie IA.
Oltre a far sì che l'IA si allinei alla nostra etica è opportuno cercare di capire come e dove distribuire la responsabilità dell’operato di ognuno e identificare metodi innovativi per assicurarci il buon funzionamento di queste nuove entità diverse da noi ma non più semplici strumenti.
Riproduzione riservata