Alle radici dell’intelligenza artificiale: il libro in edicola con il «Corriere»

di MASSIMO SIDERI

Con il quotidiano il primo dei tre titoli della serie «Il lato umano della tecnologia» realizzata con lo Humane Technology Lab dell’Università Cattolica. Macchine pensanti e interazione: Kate Crawford esplora il lato oscuro dell’IA

 Alle radici dell’intelligenza artificiale: il libro in edicola con il «Corriere»

L’Aia, Museo Mauritshuis: un’opera realizzata con l’IA dall’artista digitale Julian van Dieken e ispirata a Johannes Vermeer (Simon Wohlfahrt / Afp)

Nella seconda metà dell’Ottocento sui media dell’epoca scoppiò il caso dell’intelligenza del cavallo. Passò alla storia come il dilemma «Cleaver Hans», dal nome del cavallo, Hans, e da cleaver, intelligente, e lo possiamo porre in questi termini: le aspettative dell’osservatore o di chi pone le domande possono influenzare le risposte? In breve: sì. Attraverso l’intelligenza degli animali abbiamo compreso un baco nell’intelligenza umana.

Ancora oggi, come ricorda la professoressa dell’Università di Berkeley Kate Crawford nel suo libro Né intelligente, né artificiale, il dilemma viene usato per valutare le risposte e i pregiudizi, questa volta positivi, che noi stessi coltiviamo nei confronti degli algoritmi. Ecco come funziona: Hans stupì il mondo per la sua capacità di contare e svolgere semplici operazioni matematiche, come le somme; se gli si chiedeva, per esempio, quanto fa 2 più 3 rispondeva con 5 colpetti di zoccolo.

Il caso alimentò così tanto la fantasia e le aspettative dell’opinione pubblica che il ministero dell’Istruzione tedesco istituì una commissione per capire se il suo proprietario, Wilhelm von Osten, fosse un truffatore. Ma nulla portò a confermare questa ipotesi. Non c’era truffa.

Eppure c’era un tranello, di cui erano vittime tutti, a partire dal cavallo e dal suo proprietario. Hans usava quella che oggi chiameremmo «intelligenza emotiva» più che la capacità di fare di calcolo: al quinto colpo di zoccolo, o al settimo che fosse, riusciva a notare la soddisfazione di chi gli poneva la domanda e si fermava. A scoprirlo fu uno psicologo: Carl Stumpf (intuì il sottile meccanismo per sottrazione: quando a porre le domande era qualcuno che non conosceva la risposta, l’intelligenza di Hans tracollava). Un esempio ante litteram dell’importanza dell’interdisciplinarietà.

Historia magistra innovationae, la storia ci insegna anche l’innovazione, a saperla studiare. L’aneddoto sul cavallo Hans è difatti utile per porsi oggi la domanda che si era posto lo stesso padre dell’Intelligenza artificiale, Alan Turing, nel 1950: le macchine possono pensare?

La nostra stessa aspettativa che possano farlo ci spinge a crederci. Non è solo un indizio del meccanismo della «fede» che riponiamo nella tecnologia. C’è qualcosa di più profondo e di inconscio. Un po’ come quando la nostra mente coglie tratti antropomorfi in una nuvola, oppure quando ci sembra che il nostro gatto o cane si comporti proprio come un essere umano. Sigmund Freud lo chiamava il perturbante, dando così un nome a quella sensazione ambigua di attrazione e repulsione che proviamo quando guardiamo qualcosa di inanimato che però ci ricorda la nostra vita: una bambola meccanica al suo tempo, un robot androide oggi.

Nel nostro caso è un fenomeno che, con un neologismo, potremmo definire «AIcebo», una sorta di effetto placebo dell’intelligenza artificiale (IA, oppure in inglese AI): la nostra ansia di scorgere segni di intelligenza nelle macchine ci spinge a trovare addirittura segni di coscienza. Come per gli esperimenti con sostanze e molecole placebo l’effetto nasce all’interno del nostro mondo, in un crocevia tra psicologia, chimica della vita e biologia.

La narrativa non è nuova ed è stata seminata anch’essa nell’Ottocento: fu un contemporaneo di Charles Darwin, Samuel Butler, a pubblicare un libro nascondendosi dietro lo pseudonimo di Cellarius dal titolo Darwin among the machines. Nel racconto, a metà tra saggistica futuristica e romanzo, Butler anticipò un mondo in cui le macchine avrebbero acquisito consapevolezza e preso il controllo del mondo evolvendosi darwinianamente.

Ecco il seme dell’«AIcebo». È come se la nostra mente fosse stata «hackerata», un po’ dal nostro bisogno di esplorare e scoprire nuove geografie, un po’ dall’avanzata armata del marketing delle società tecnologiche che vorrebbero colonizzare la nostra stessa idea di futuro.

In filosofia si chiama paradosso della nave di Teseo: secondo il mito, per commemorare la fuga di Teseo da Creta con i giovani liberati dalla prigione del labirinto del Minotauro, ogni anno gli ateniesi si recavano in processione con la nave usata da Teseo. Il paradosso, raccontato da Plutarco, è questo: dopo cento anni, quando i pezzi della nave sono stati rimossi uno ad uno per essere cambiati a causa dell’obsolescenza, la nave è sempre la stessa?

Il paradosso venne ripreso e complicato, secoli dopo, da Thomas Hobbes: se qualcuno ha preso i singoli pezzi smontati dalla nave e ne ha fatto una seconda nave è questa l’originale? In altri termini è la forma o il materiale che garantisce l’identità? La stessa cosa potremmo applicarla alla mente umana: è come se, nell’interazione con la tecnologia dalla ruota all’AI, avessimo cambiato i singoli pezzetti neurali lasciando però la nostra mente allo stesso posto. In questo senso il nostro cervello è stato «hackerato».

Alla Carnegie Mellon University è stato organizzato uno dei tanti test per cercare di quantificare la parcellizzazione della capacità di concentrarci quando conviviamo con la tecnologia: 136 ragazzi e ragazze sono stati divisi in due gruppi. La tribù offline, cioè con il telefono spento, ha ottenuto in diversi test un risultato migliore in media del 20%. Gli altri hanno perso. Il costo della distrazione. L’esperimento è un ulteriore esempio di come ci mettiamo automaticamente ma inconsciamente in una posizione di svantaggio nell’utilizzo (scorretto perché passivo) della tecnologia.

C’è anche un effetto esponenziale: quando perdiamo la concentrazione non perdiamo solo il lasso di tempo dedicato ad altro, per esempio a controllare una notifica. La nostra mente deve rimettere a fuoco, tornare un po’ daccapo, ripensare a cosa aveva letto prima. Il processo di perdita di tempo non è la sola sommatoria dei frammenti di tempo persi. Come quando riprendiamo dopo un po’ un libro lasciato sul comodino. Dove eravamo rimasti? Anzi: di cosa parlava la storia? Come si chiamavano i personaggi? Chi era questo Starbuck? E questo Edmond Dantès? Devi risfogliare qualche pagina, avanti e indietro. È il costo esponenziale della distrazione. Il lato umano della tecnologia, in definitiva, non è domandarci se le macchine siano intelligenti. Ma come usarle per restare noi sapiens intelligenti.

La collana in tre uscite e l’incontro a Milano

desc img
La copertina del libro in vendita con il «Corriere della Sera»

Kate Crawford nel libro Né intelligente né artificiale. Il lato oscuro dell’IA usa fin dalle prime pagine la metafora dell’atlante per descrivere il suo lavoro. Il volume, che ha la prefazione di Antonella Marchetti, è in edicola a euro 9,90 più il prezzo del quotidiano, prima di tre uscite della collana «Il lato umano della tecnologia» edita dal «Corriere» e curata dallo Humane Technology Lab dell’Università Cattolica diretto da Giuseppe Riva. «Le mappe nella loro forma migliore — scrive Crawford, visiting distinguished professor a Berkeley ma anche co-fondatrice dell’Ai Now Institute della New York University — ci offrono un compendio di percorsi aperti, modalità di conoscenze condivise, che possono essere mescolati e combinati per creare nuove interconnessioni». Il libro è una mappa anche dei viaggi che l’autrice ha compiuto per portare avanti l’inchiesta: nelle fabbriche di Amazon come nelle «fattorie» dove gli stessi esseri umani vengono pagati pochi centesimi per porre dei tag alle immagini del web per permettere all’IA di discernere e dunque «apparire intelligente». D’altra parte la natura critica del lavoro di Crawford (che è anche senior researcher presso Microsoft, mostrando dunque una libertà di pensiero non scontata) è palese fin dal sottotitolo e da quel lato oscuro. Come tutte le mappe, la sua ha l’ambizione di far ritrovare la strada all’essere umano. La collana «Il lato umano della tecnologia» sarà presentata il 14 novembre a Milano all’Università Cattolica (ore 18, Cripta Aula Magna, largo Agostino Gemelli 1) in un incontro con Simone Natale, Giuseppe Riva e Massimo Sideri. Le prossime uscite in edicola sono: il 17 novembre, Simone Natale, Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale, con prefazione di don Luca Peyron; il 1° dicembre, Giuseppe Riva, I social network, con prefazione di Andrea Gaggioli.

3 novembre 2023 (modifica il 3 novembre 2023 | 20:40)