L’intelligenza artificiale (IA) è ormai famosa. Ma la fama, si sa, è più mito e rumore che vera informazione. Ci consola almeno la considerazione ben enfatizzata che questa nuova e rivoluzionaria tecnologia, pervasiva perché capace di amplificare le capacità intellettuali umane a un livello senza precedenti, necessita di una saggia guida umana per dare frutti sani. L’obiettivo che ci si pone quindi è quello di ottimizzare le opportunità che essa favorisce evitando conseguenze indesiderate. Per queste ragioni la sua regolamentazione, benché complessa, è allo studio tanto quanto il suo sviluppo tecnologico e scientifico.
Per comprendere la situazione osserviamo che la prima rivoluzione industriale, tanto quanto le successive, ha cambiato il volto della società portando un tenore di vita senza precedenti, ma ha anche avuto, e continua ad avere, conseguenze problematiche, in larga misura non anticipate, per esempio di natura ecologica. Lo sforzo di oggi è prevedere – mestiere tutt’altro che facile – quali possano essere i pericoli e i relativi rischi della nuova tecnologia digitale che sintetizza in piccole conoscenze pronte all’uso l’informazione cruda contenuta nei dati. Il panorama delle problematiche che vengono considerate è di natura variabile, spesso più immaginaria che reale, dove le insidie già presenti e serie sono talvolta ignorate o messe in secondo piano rispetto ad altre che colpiscono l’immaginario in modo violento ma rimangono ancora puri spettri di un futuro più o meno lontano.
In questo breve intervento voglio soffermarmi su un rischio imminente e sui pericoli che da esso seguono, quello che emerge nell’importantissima e necessaria sfera della discussione pubblica sull’IA, in particolare attraverso la comunicazione digitale che domina ormai sulle altre.
Sappiamo che l’attenzione del pubblico è molto legata alle emozioni che la notizia suscita. Questo fatto è da sempre noto ai mezzi di informazione, e oggi più che mai alle piattaforme online che fanno di quell’attenzione la linfa del loro successo. Più a lungo siamo in Rete, più è facile per loro darci suggerimenti per gli acquisti, l’olio santo del loro business. Per l’IA la reazione emozionale è stata da subito, negli anni Cinquanta, la scintilla del nostro interesse. Tra i primi a comprenderlo c’è stato il visionario Kubrick, che di quelle emozioni ha fatto la linea narrativa della sua Odissea nello spazio: la curiosità e la meraviglia iniziali, l’entusiasmo e la speranza che seguono, le preoccupazioni e la paura che subentrano e infine i dilemmi etici che lascia allo spettatore. Quel film condensava in fantascienza una parte del futuro che ci attendeva, proiettandola dal ‘68 al primo anno del terzo millennio. Non serve dire che le cose non sono andate proprio così. È vero che oggi chiacchieriamo con ChatGPT, che sembra umano. Ma l’autocoscienza di Hal e il suo desiderio di sopravvivere appartengono ancora al futuro propriamente detto, l’intervallo temporale che va dall’ora al mai.
Mediamente il pubblico non sa nulla di IA. Vede solo quel suo molteplice e camaleontico volto umanoide che si interfaccia a noi
Il lato emozionale della discussione sull’IA e quello immaginario che ne è seguito continuano oggi più che mai a distorcere l’informazione che circola su questa tecnologia. Non dimentichiamo invece che la nuda e cruda realtà dell’IA, fatta di algoritmi matematici e per giunta inseriti in un software proprietario e riservatissimo, è lontana dal pubblico. E questo non aiuta né una genuina curiosità né un’eventuale sana fiducia.
Mediamente il pubblico non sa nulla di IA. Vede solo il suo molteplice e camaleontico volto umanoide con cui essa si interfaccia a noi e che le deriva dai dati generati da umani sui quali è stata addestrata. Quando la vediamo in azione così simile a noi e spesso anche più capace, la tentazione di immaginarla umana là dove non la vediamo è fortissima. Si tratta del bias antropomorfo di cui siamo totalmente intrisi. In questo terreno, col buio di fronte e la sola libertà di chiudere gli occhi, è facile seguire la pancia o il cuore che prediligono le paure e gli entusiasmi. Difficile invece è cercare l’approfondimento e lo studio.
Approdando online, col suo nuovo e fitto tessuto di comunicazione a fibre orizzontali, tanto armati quanto inconsapevoli del nostro pregiudizio di conferma verso timori casuali da un lato e fiducie cieche dall’altro, gli algoritmi della rete per trattenerci evitano di mostrarci le noiose posizioni realiste che ci farebbero andare altrove e ci mettono nella bolla di risonanza che più ci assomiglia. All’interno di una di queste, comodi e coccolati, ce le cantiamo e ce le suoniamo, soddisfatti e ignoranti seppure innocenti. Vale la pena ripeterlo: quegli algoritmi non sono stati architettati per polarizzarci, vogliono solo tenerci connessi a lungo per propinarci tanti consigli per gli acquisti. Ovviamente quella modalità non favorisce l’approfondimento che serve a capire una rivoluzione industriale come quella corrente.
La disinformazione dunque regna, il rischio di polarizzazione sull’IA è da allarme rosso, il suo termometro è la diffidenza che suscita la parola “algoritmo”, ormai peggiore di quella verso la parola “nucleare”.
Ma perché polarizzarsi sull’IA è pericoloso? Che cosa può succedere? Rimanere esclusi dalla rivoluzione industriale, pensando a quella del passato, non fece accadere nulla di drammatico nell’immediato. Ma nei secoli la differenza nella qualità della vita tra la società occidentale, col suo abbondante uso di energia, e il resto del mondo si è resa sempre più marcata e manifesta.
Oggi il rischio è simile con l’unica sostanziale differenza che i tempi di questa rivoluzione sono accelerati all’incirca cento volte e l’unità di misura delle trasformazioni è l’anno, non più il secolo e neppure il decennio. Il pericolo che corre un Paese che si chiude all’IA va dal piombare in breve tempo nel terzo mondo o, alla meglio, diventare colonia di quelli che la sviluppano, producono e vendono. Naturalmente non è pensabile lasciare la nuova tecnologia in libertà anarchica o nelle mani di pochi criptici attori. Le conseguenze potrebbero essere peggiori di quelle ecologiche prodotte dell’uso non sostenibile dell’energia.
Il pericolo che corre un Paese che si chiude all’IA va dal piombare in breve tempo nel terzo mondo al diventare colonia di quelli che la sviluppano, producono e vendono
Siamo quindi in una fase in cui non è proprio il caso di polarizzarci in posizioni estreme di pro o contro. Abbiamo al contrario il dovere di informarci, ponderare, ascoltare e seguire il saggio principio di distingue frequenter.
C’è infine un fattore di estremo rilievo che impatta la discussione pubblica sull’IA: l’appropriazione che ne sta facendo la politica. Non sorprende che la comunicazione dei politici si serva di temi caldi come l’intelligenza artificiale, che cavalchi le paure e vada al traino degli entusiasmi. Le tendenze, che già emergono in politica internazionale, ad abbandonare il terreno di approfondimento e orientarsi al pro o contro meriterebbero un’approfondita analisi comparata. Qui ci limitiamo a un breve cenno sul vecchio continente: in Eu manca una strategia condivisa e senza di essa l’Europa è di fatto disfunzionale sul tema. Eppure un fatto è chiarissimo: se i grandi Paesi europei, tra cui il nostro, riuscissero a catalizzare un’azione per tutto l’ambiente comunitario, con quel patrimonio di ingegno unico al mondo che esso possiede, forse si potrebbe ottenere qualcosa.
L’intelligenza artificiale non è un oggetto a scala nazionale. Se vogliamo ancora essere competitivi serve una massa critica intellettuale, finanziaria e politica che solo un continente può mettere assieme. Cosa aspettiamo a identificare un percorso, a investire in modo massiccio e coraggioso, a fare IA regolandola by design invece che parlare di regole su qualcosa che ancora non facciamo? La missione non è impossibile: promuovere la collaborazione tra Paesi e settori, incentivare le start-up e i partenariati pubblico-privati, favorire la condivisione responsabile dei dati. Una condizione per riuscirci è una cultura pubblica positiva sull'IA lontana da disinformazione e polarizzazione.
Riproduzione riservata