Il sogno di una “macchina che ragiona” è antichissimo. Si può ricordare Raimundo Lulio (1232-1316) che già nel 1274 immagina la macchina chiamata Ars Magna in grado di dimostrare se una proposizione è vera o falsa. Come pure Gottfried Leibniz (1646-1716) che nel 1671 vuole creare un sistema per gestire la conoscenza umana e che introduce il sistema binario, forse ispirandosi all'antico I-Ching cinese basato su simboli a due configurazioni. Ma è nel 1801 che le prime macchine “automatiche” entrano nelle fabbriche tessili con i telai Jacquard, macchine a schede perforate in grado di accelerare la produzione. Infatti nell'ottobre 1831 a Lione, dove si concentra l'industria tessile francese, si scatena la “Rivolta dei Canuts” (tessitori), preoccupati dell'impatto dell'automazione sul loro lavoro. In Inghilterra, in piena rivoluzione industriale, è Charles Babbage (1791-1871) che, volendo migliorare la precisione delle tavole matematiche e indagare le possibilità della meccanizzazione della nascente industria manifatturiera, progetta il primo “calcolatore programmabile”. La sua idea si ferma a un unico prototipo meccanico.
Deve passare ancora un secolo per arrivare al 1937, quando il matematico Alan Turing (1912-1954) propone l'idea di “macchina universale”. Turing va negli Stati Uniti, a Princeton, per il suo dottorato di ricerca e qui incontra il suo “tutor” John Von Neumann. Proprio Von Neumann, con le tecnologie elettroniche e con gli immensi finanziamenti disponibili del progetto Manhattan, ispirato dalle idee di Turing, progetta il primo computer che risulta cruciale per i calcoli necessari allo sviluppo della prima bomba atomica. Nasce così il computer, la macchina per eseguire algoritmi.
Turing è il primo ad usare il termine “intelligenza” nel suo articolo “Computer machinery and intelligence”, anche se evita accuratamente di parlare di “intelligenza artificiale”. Infatti aggira la domanda sulle capacità di “pensiero” del computer in modo pragmatico proponendo un esperimento: si considerino un uomo e una donna che dialogano, scrivendo a macchina, con una terza persona a distanza. La terza persona deve stabilire chi è l'uomo e chi è la donna tra i primi due, basandosi solo sulle risposte che essi forniscono. Attenzione però: l'uomo tenta di ingannare l'interlocutore, mentre la donna cerca di aiutarlo; se, sostituendo l'uomo con una macchina, la terza persona ha risultati simili alla prima situazione, allora la macchina imita l'umano, le sue risposte sono indistinguibili da quelle di un umano. Infatti è il gioco dell'imitazione, il famoso Test di Turing.
Riprendendo queste idee, nel 1955, ricercatori dell'Ibm, della Harvard University e dei Laboratori Bell lanciano un Programma di ricerca sull'Intelligenza Artificiale molto ambizioso. Cominciano gli annunci roboanti: “in venti anni la macchina sarà in grado di fare qualsiasi lavoro che fa l'uomo” (Simon), “in una generazione il problema di creare una intelligenza artificiale sarà sostanzialmente risolto” (Minsky). Tutto questo contribuisce ad ottenere ingenti finanziamenti per queste ricerche. Dopo qualche anno però, visti gli scarsi risultati, il clima si raffredda.
Nel 1966, uno dei pionieri di questo settore, Joseph Weizenbaum, progetta il sistema Eliza, forse il primo programma che simula un dialogo tramite telescrivente. Un giorno, entrando nel suo ufficio al Mit, trova l'assistente che sta “parlando” con Eliza e gli chiede di uscire perché il contenuto della “conversazione” sta diventando confidenziale. Questo episodio spinge Weizenbaum verso una seria riflessione sui limiti e sui rischi dell'intelligenza artificiale e pubblica uno dei testi fondamentali dell'etica digitale: Il potere del computer e la ragione umana (1976). In esso propone di distinguere tra decisioni (che si possono affrontare con attività computazionali, che quindi possono essere programmate su un computer) e scelte (che comportano un giudizio, non sono il risultato di un calcolo: è proprio la capacità di scegliere che ci rende umani). Le scelte sono funzioni umane che non dovrebbero essere delegate a macchine.
Nel 1972 il filosofo della scienza Huber Dreyfuss è perentorio e smonta i presupposti principali delle ricerche sulla cosiddetta “intelligenza” artificiale: il presupposto biologico (secondo il quale il cervello elabora le informazioni in operazioni discrete tramite qualche equivalente biologico di interruttori on/off); il presupposto psicologico (secondo il quale la mente può essere vista come un dispositivo che opera su bit di informazioni secondo regole formali); il presupposto epistemologico (secondo il quale tutte le conoscenze possono essere formalizzate); il presupposto ontologico (secondo il quale il mondo è costituito da fatti indipendenti che possono essere rappresentati da simboli indipendenti).
In sostanza Dreyfuss contesta la concezione dell'intelligenza basata sulla semplice esecuzione di regole (What computers can't do, Mit Press, 1972).
Nel frattempo la rete Internet (1973) copre il pianeta e il Web (1989) diventa l'interfaccia usata ormai da oltre cinque miliardi di persone. Un altro fatto storico va ricordato, forse la svolta più importante nella formazione della cosiddetta “infosfera”: nel 1996 il Congresso degli Stati Uniti approva il Telecommunication Act, la più grande riforma delle telecomunicazioni della storia. Tre i punti principali: le imprese dell'online business hanno enormi vantaggi fiscali, non sono soggette alle norme contro i monopoli e, soprattutto, non sono responsabili dei contenuti diffusi online. Una miscela micidiale che fa tramontare definitivamente l'Internet sognata degli anni iniziali, con la sua accessibilità alla conoscenza e la sua architettura decentrata. Dopo quella dei grandi calcolatori (es. Olivetti Elea 9003 del 1959), quella dei personal computer (es. Olivetti P101 del 1965), inizia la terza era dell'informatica basata sull'architettura centralizzata del cloud computing. Dal 2007, con la diffusione sul mercato di miliardi di smartphone, gli utenti diventano “consumatori digitali”, nelle loro mani hanno solo l'input e l'output di un touchscreen che, senza connessione, può fare ben poco. Ma connessi con chi?
Connessi a giganteschi centri di elaborazione che forniscono servizi online per la maggior parte gratuiti., forniamo un flusso continuo di dati di dimensioni inimmaginabili
I miliardi di utenti della rete sono connessi a giganteschi centri di elaborazione che forniscono servizi online per la maggior parte gratuiti. Usando questi servizi le persone forniscono un flusso continuo di dati di dimensioni inimmaginabili: nel 2022 il traffico in rete è stimato in 4,8 Zettabyte/anno, 10 elevato alla 21a potenza, mille miliardi di Gigabyte/anno: una quantità di dati immensa, dove il 71% è costituito da video. I fornitori di questi servizi online sono le uniche organizzazioni sul pianeta in grado di memorizzare e di elaborare queste quantità di dati. Nel 2021, tra le dieci imprese con maggiore capitalizzazione a livello mondiale, ben sette sono i gestori dei giganteschi centri di elaborazione del cloud computing: Apple, Microsoft, Google, Amazon, Facebook (Meta), Tencent, Alibaba (Forbes, 2021). I servizi online gratuiti vengono ripagati dagli utenti con la fornitura dei loro dati, rivenduti dai gestori agli inserzionisti pubblicitari. Questo ha creato quello che Shoshana Zuboff chiama “capitalismo della sorveglianza”: questi dati vengono usati per personalizzare i servizi fino a creare una vera e propria dipendenza. Infatti non esiste nessun altro media in grado di fornire 24 ore su 24 servizi così personalizzati, condizionati dalla presenza su una rete sociale e governati da sofisticati algoritmi di “intelligenza” artificiale: “il capitalismo manageriale andava a caccia del nostro corpo per automatizzarlo. Il capitalismo della sorveglianza va a caccia della nostra mente per automatizzarla” (Il capitalismo della sorveglianza, Luiss, 2023).
Cosa c'è di nuovo? Cos'è cambiato dai tempi di Turing, Wiener e Weizenbaum?
Ovviamente la potenza di elaborazione e una capacità di memorizzazione superiori di molti ordini di grandezza rispetto agli albori dell'era digitale. Potenza e capacità che però sono nelle mani di ben poche organizzazioni. Questo è cambiato.
Oggi più che mai entrano in gioco le scelte dei progettisti a molti livelli: da quali fonti raccogliere i dati? Come selezionare i dati? Come aggiungere metadati ai dati stessi?
Ma il concetto non è cambiato: LamDA, ChatGPT, come tutti i Large Language Model (LLM), producono stringhe di caratteri che chiamiamo testo. Non “sanno nulla” del significato di questo testo. Il testo prodotto è comprensibile e coerente in quanto risultato della combinazione di una quantità immensa di dati; infatti questa combinazione è programmata per produrre risposte “statisticamente simili” a quelle che i progettisti hanno scelto come insieme di dati (dataset) per calibrare l'algoritmo durante il procedimento definito “machine learning”. Dunque entrano in gioco le scelte dei progettisti a molti livelli: da quali fonti raccogliere i dati? Come selezionare i dati? Come aggiungere metadati ai dati stessi? Una volta immessi i dati nel modello, come viene via via corretto il modello? Verso quali scopi? Durante tutto il processo intervengono le scelte dei progettisti, inclusi i loro pregiudizi umani; per non parlare degli “schiavi del clic” che vengono reclutati nel Sud del pianeta per “leggere e filtrare commenti, classificare le informazioni e aiutare gli algoritmi ad apprendere” (A. Casilli, Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo?, Feltrinelli, 2020). Altro che “intelligenza” artificiale.
Tutto questo sta concentrando un enorme potere in pochissime mani. Questo è cambiato, e questo apre scenari complessi e controversi. Non basta evidenziare i limiti di questi “algoritmi che si calibrano con tanti dati” (non chiamiamola più “intelligenza artificiale”) quando sono esposti alla ricchezza del metalinguaggio umano (ti racconto di un racconto dove si racconta… e via annidando), non basta sottolineare le conseguenze ambientali (i data center che ospitano queste applicazioni software sono in crescita esponenziale e sono tra i più grandi consumatori di energia sul pianeta), diventa urgente analizzare anche le conseguenze sociali.
Già oggi il caos epistemico è arrivato a livelli pericolosi, cosa avverrà quando diventa così facile diffondere mala-informazione (informazione vera, effettiva, diffusa tipicamente fuori contesto), mis-informazione (informazione falsa e fuorviante, creata e diffusa senza l’esplicita intenzione di ingannare, purtroppo percepita e ritrasmessa come fosse vera), dis-informazione (informazione falsa, diffusa con l'esplicita intenzione di ingannare le persone, polarizzare l'opinione in gruppi incomunicanti, senza vie intermedie, fino alle conseguenze estreme)?
Soprattutto quando nessuno è più responsabile di “enunciati” che possono avere conseguenze catastrofiche? Quando diventa difficilissimo capire che non si tratta di umani? Quando un algoritmo calibrato con tanti dati potrà scrivere milioni di commenti sui social network, scrivere impeccabili lettere al direttore sui giornali?
Di fronte alla policrisi attuale (geopolitica, ambientale, sanitaria,…) la specie umana deve imparare a porsi le domande giuste, non trovare (facendosi aiutare dalle macchine) risposte puramente descrittive. Una possibile via potrebbe essere quella di passare dalle risposte superficiali alle domande più profonde, insegnare a porsi domande, coltivare l'ars interrogandi.
Di fronte allo strapotere del mercato e delle tecnologie digitali in mano alle Big Tech, è necessario riscoprire l'importanza dell'educazione (dal coding alla saggezza digitale) e della norma, del diritto che regolamenti anche questi domini, dove finora valeva la legge del più forte.
Anche se vince al gioco dell'imitazione, anche se supera il Test di Turing.
[Nei prossimi giorni uscirà un ebook curato dalla rivista “Gli asini” intitolato Tecniche e miti. Le trappole dell'intelligenza artificiale. Nel libro, l’intelligenza artificiale viene indagata da molteplici punti di osservazione che ne mettono in luce la storia, le connotazioni ideologiche, i rischi. Anticipiamo una parte del saggio di Norberto Patrignani, docente di Computer Ethics alla Scuola di Dottorato del Politecnico di Torino.]
Riproduzione riservata