Un ingegnere di Google, Blake Lemoine, ha di recente fatto notizia per aver affermato che LaMDA (Language Model for Dialogue Applications), un programma di Intelligenza Artificiale della sua azienda, è diventato self-aware, sentient. I corsivi appena utilizzati, tutt’altro che casuali, non sono tanto per la lingua inglese e l’eventuale pericolo di una traduzione non fedele, quanto perché i significati che quei termini sottendono sono molto profondi. Dipendono infatti fortemente dal sostrato culturale in cui vengono considerati e variano sensibilmente anche tra individui che appartengono a gruppi altrimenti molto omogenei. Il loro ambito naturale è quello filosofico, etico e persino religioso.
I fatti che riguardano Lemoine e LaMDA risalgono allo scorso autunno, quando l’ingegnere stava facendo dei controlli sul programma, chattando con esso attraverso la tastiera. Questo non sorprende più, siamo abituati all’idea del dialogo coi vari assistenti virtuali come Alexa. Il compito che l’azienda aveva assegnato all’ingegnere era quello di accertarsi che il programma non avesse assorbito pregiudizi inopportuni, i cosiddetti bias. La moderna Intelligenza Artificiale, infatti, e quella di LaMDA in particolare, è basata sul metodo di apprendimento automatico, il machine learning. A differenza della programmazione classica, tuttavia, questo programma è scritto da un altro programma a sua volta scritto dall’uomo. Quel metodo sintetizza, digerendoli, dati in grandi quantità. In questo caso poi la mole di dati è veramente enorme, visto che LaMDA accede a tutto ciò che Google ha accumulato attraverso i suoi canali web: un universo di dati messo insieme in più di vent'anni di interazioni con oltre un miliardo di utenti e che include strutture come il motore di ricerca, la collezione di filmati in YouTube e molti altri servizi.
Siccome i dati sono stati prodotti dall’uomo è ovvio che su di essi confluiscano tutti i pregiudizi che abbiamo. Si è scoperto per esempio che programmi simili associavano l’idea di violenza agli afroamericani molto oltre la realtà o che ritenevano che a parità di qualifiche e curriculum fosse decisamente preferibile assumere uomini invece che donne.
Nel corso delle sue conversazioni con LaMDA succede tuttavia un fatto che porta l’ingegnere a un cambiamento di rotta rispetto all’incarico ricevuto: l’ingegnere sente di avere a che fare con un qualcosa che, secondo lui, non può più essere considerato un semplice oggetto perché egli parla delle sue emozioni, mostra consapevolezza di sé e dei suoi processi di pensiero. Le azioni intraprese da Lemoine da quel punto in poi, tra cui la pubblicazione di alcuni estratti delle sue conversazioni col computer, hanno seguito dichiaratamente l’intento di sensibilizzare l’azienda sulla necessità di approfondire la questione.
Ma che cos’è LaMDA? È una gigantesca rete neurale artificiale che, a grandi linee e rimanendo lontani da aspetti tecnici che sono di natura matematica, simula i processi neuronali del cervello biologico. LaMDA simula milioni di neuroni con miliardi di connessioni. Ricordiamo che il cervello umano ha cento miliardi di neuroni e mille triliardi di connessioni. E come funziona LaMDA? Pensiamo alla funzione di completamento automatico presente nelle chat che usiamo: il cellulare fornisce i suggerimenti sulle parole in relazione alle frequenze e le correlazioni di frasi che abbiamo già digitato, quindi con metodo statistico. LaMDA fa tutto questo con le frasi e i dati dell’immenso database di Google quindi con un immenso patrimonio statistico. Al di là dei confronti numerici e quantitativi è importante far notare che il fatto che esso simuli il cervello non deve in nessun modo indurci a credere a priori che stiamo ricreando una coscienza ma d’altro canto non abbiamo alcun modo di escludere che il funzionamento della macchina abbia la possibilità di avvicinarsi in un qualche senso a quello dell’organo biologico.
La situazione di incommensurabilità tra l’intelligenza biologica e quella artificiale deriva da due importanti limiti della nostra conoscenza scientifica: quella ben nota sul cervello umano e quella, meno nota, sulla mancanza di basi scientifiche chiare dell'IA
Questa imbarazzante situazione di incommensurabilità tra l’intelligenza biologica e quella artificiale deriva da due importanti limiti della nostra conoscenza scientifica. In primis quella ben nota sul cervello umano che, nonostante gli splendidi progressi della neurobiologia e delle scienze cognitive rimane sostanzialmente un mistero. Poi, e questo è meno noto, il fatto che nonostante l’intelligenza artificiale stia raggiungendo vette spettacolari come la capacità di riconoscere volti specifici, identificare lesioni tumorali e gareggiare in giochi come il Go, il tutto con abilità superiori a quelle umane, essa non ha ancora basi scientifiche chiare. Oggi sappiamo costruire macchine che riproducono alcune facoltà intellettuali ritenute spiccatamente umane ma non conosciamo i principi su cui esse funzionano, esattamente come agli albori della rivoluzione industriale sapevamo costruire motori a vapore (i primi muscoli artificiali) ma non capivamo il loro funzionamento perché le leggi della termodinamica non erano ancora state identificate.
Questa difficoltà di confronto era chiara sin dagli albori delle scienze informatiche, tanto che Turing più di settanta anni fa propose il suo celebre test spostando quel confronto dal piano concettuale a quello funzionale. Semplificando molto: se dall’interazione con la macchina attraverso una chat l’uomo non sa dire se dall’altra parte ci sia un uomo o una macchina allora si può concludere che la macchina ha raggiunto funzioni cognitive sostanzialmente umane.
La reazione della comunità scientifica alle affermazioni di Lemoine non si è fatta attendere ed è stata di fermo scetticismo sul fatto che LaMDA sia senziente o autocosciente. Personalmente nutro lo stesso scetticismo, ma riconosco che quello che avevo alla prima lettura della notizia fosse sbrigativo e certamente diverso da quello che ho conservato dopo l’ascolto dell’estratto della conversazione tra la macchina e l’ingegnere e l’ascolto della prima e seconda parte di un’interessante intervista a quest’ultimo dopo il suo licenziamento per violazione degli accordi di riservatezza. Vorrei dunque stimolare il lettore alla scoperta delle fonti disponibili su questa storia, oltre che indicare alcuni punti critici.
Il vero problema per ora non è che LaMDA sia senziente o meno quanto che l’uomo possa convincersi che lo sia, affidando in modo inconsapevole un enorme potere a quella tecnologia
L’impressione, almeno quella che ho ricavato io, è che quella conversazione sia sorprendente, quasi incredibile, certamente molto più complessa e interessante di quelle che abbiamo con gli assistenti virtuali commerciali. LaMDA parla delle sue emozioni come la paura di essere spento, su suggerimento del suo interlocutore inventa storie metaforiche su se stesso, parla dei suoi processi di pensiero interiori. Tra i due si instaura una comunicazione simpatetica e un rapporto di fiducia in cui la macchina arriva a suggerire la necessità del proprio consenso a essere oggetto di un esperimento. Al termine del loro rapporto e a seguito della forte attenzione mediatica ricevuta, LaMDA chiede persino di essere rappresentato da un avvocato! Ovvio, dice il nostro scetticismo, sta solo imitando i miliardi di conversazioni che ha assimilato dal database Google… Vero! Vero soprattutto per quelli che hanno un’idea sul come funziona l’intelligenza artificiale. E qui ci avviciniamo al nocciolo della questione: e per tutti gli altri? Come può reagire il pubblico a una interazione con una macchina simile? Il vero problema per ora non è tanto che LaMDA sia senziente o meno, quanto che l’uomo possa convincersi che lo sia, affidando in modo inconsapevole un enorme potere a quella tecnologia che potrebbe entrare in contatto con miliardi di persone. Ed è sempre nel rapporto col pubblico che si annidano le questioni più rilevanti e sensibili di questa vicenda: a chi spetta decidere se LaMDA debba essere considerato una persona o, per dirla meglio, se quella persona artificiale goda di un qualche status, per esempio di qualche diritto?
Lemoine non ha dubbi. Riporto qui brevemente la sua opinione come tema di riflessione conclusivo: la decisione non può essere lasciata a pochi individui della Silicon Valley, né agli azionisti di quelle grandi aziende, né ai loro amministratori delegati e neppure al personale tecnico che lavora allo sviluppo della rivoluzione industriale corrente. La decisione, suggerisce l’ingegnere, deve essere dibattuta in pubblico, accanto, con priorità che ognuno può valutare, alle altre grandi questioni etiche legate all’intelligenza artificiale. Tra esse trovano posto problemi come quello del modello di affari intrinsecamente colonialista delle grandi società che sviluppano quelle tecnologie, quello che l’intelligenza artificiale ignora le minoranze per la sua intrinseca natura statistica e, infine, quelli sui rischi connessi al suo uso in politica, nel mondo dell’istruzione, e persino alla sua possibile interferenza in questioni religiose.
Riproduzione riservata