RELAZIONI PERICOLOSE – I misteriosi legami tra reti neurali e mente umana. Intervista allo scienziato dei neuroni specchio
Vittorio Gallese: così la simbiosi cervello-macchina evolve nell'era dell'AI, sporcandosi le mani tra coscienza, elettrodi, paure, protesi, scoperte e lo spettro di una scuola ferma a 100 anni fa
Hello human,
l’intervista di oggi è da non perdere, prenditi tutto il tempo necessario perché sarà un viaggio al centro di [humans/AI] Io sono Matteo Montan e se vuoi saperne di più su di me e sulla mia newsletter, trovi tutto nelle Info. E ora, andiamo!
Siamo qui con Vittorio Gallese, ospite della terza intervista di [humans/AI] Nella prima abbiamo spiegato che cosa è l’intelligenza artificiale; nella seconda abbiamo parlato dell’impatto geopolitico di questa incredibile tecnologia; oggi arriviamo ad una delle intersezioni più interessanti di questo universo, la relazione tra cervello umani e reti neurali artificiali. Ne parliamo appunto con Vittorio Gallese che è direttore del Laboratorio di neuroscienze cognitive e sociali dell’Università di Parma: se lo cercate su Google, troverete il suo nome associato alla scoperta dei neuroni specchio, erano gli Anni Novanta, ma da allora ha fatto un sacco di altre cose importanti. Lascerei quindi a Vittorio, che è anche un amico, raccontare che cosa sono le neuroscienze cognitive e sociali.
Neuroscienze cognitive significa fare domande al cervello e al corpo per capire come funziona la nostra mente / intelligenza. L'aggettivo sociale è molto importante perché riconosce nel tema della relazione, della socialità, un ingrediente ineludibile per capire chi siamo e come funzioniamo. La nostra ricerca, come dicevi, ha preso il là dalla scoperta dei neuroni specchio: fino a quel momento, noi studiavamo il nostro rapporto con gli oggetti e con lo spazio, mentre con i neuroni specchio si è introdotta nella nostra ricerca la tematica della relazione intersoggettiva.
Fondamentalmente, noi studiamo la relazione interumana, ovviamente con gli strumenti delle neuroscienze cognitive, quindi registrando la risposta del cervello con risonanza magnetica e elettroencefalografia ad alta densità. Ma parlando di cervello-corpo registriamo anche l'attività cardiaca. Dobbiamo abbandonare infatti l'idea che la mente sia tutta nella testa: una concezione più moderna, peraltro non ancora maggioritaria tra i miei colleghi, fa vedere il cervello come una parte di un organismo olistico. Fondamentalmente i neuroni del mondo non sanno niente. I neuroni si scambiano potenziali di azione rilasciando e rispondendo a dei neurotrasmettitori, cioè fondamentalmente a delle molecole. Chi incontra il mondo è l'individuo, è il soggetto, e il soggetto ovviamente non è fatto solo di cervello. Quindi, dal mio punto di vista, un cervello tenuto in vita in un contenitore di soluzioni fisiologiche e nutrienti è una cosa molto diversa dallo stesso cervello, diciamo così, incastonato in un corpo. Il corpo, praticamente, per usare una metafora tecnologica è l'interfaccia del cervello.
Di base noi studiamo l'intersoggettività, l'empatia, le emozioni, come la relazione con gli altri cambia il nostro rapporto con lo spazio. Ma da molti anni abbiamo aperto anche un filone di ricerca che molti miei colleghi considerano ancora esotico, che è quello dell'estetica. Perché se noi vogliamo fare neuroscienze cognitive, occorre dire che l'Homo sapiens è prima di tutto Homo symbolicus. Mi spiego meglio: una delle caratteristiche che ci distingue dagli altri animali, che pure sono intelligenti, è che non ci accontentiamo di vivere nel mondo fisico e anche cambiarlo, noi ci inventiamo dei mondi paralleli, i mondi della finzione, creiamo immagini, raccontiamo storie. Quindi, dal mio punto di vista, lasciare questo ambito fuori dalla ricerca empirica è non solo è assurdo, ma è controproducente, perché può favorire l'idea di un'intelligenza che è tutta ridotta alla computazione, al calcolo, alla presa di decisioni, mentre noi siamo anche delle creature appunto creative e quindi il mondo non solo lo abitiamo, ma abitiamo anche mondi che ci siamo inventati noi e che verosimilmente sono solo nostri.
Accidenti, che bello: oggi noi siamo qui per parlare delle relazioni tra intelligenza umana e intelligenza artificiale, e le cose che dicevi ora del cervello umano le ritrovo esattamente nelle cose di cui scrivo trattando di intelligenza artificiale. Anche l’AI nasce come un sistema computazionale, ma poi se guardiamo all'evoluzione proprio di queste ultime settimane, ad esempio Veo3 che è il nuovo modello di Google per la creazione di video - le cose che più ci sorprendono sono le sue capacità di creare – che forse non è proprio creare, questo in effetti è un punto da stabilire – ma diciamo comunque di produrre qualcosa di immaginario che a volte va oltre quello che noi stessi riusciamo ad immaginare. Per cui, è super stimolante avere qua oggi Vittorio Gallese per approfondire questi temi. E partirei da una domanda direi dirimente: in che cosa l'intelligenza umana e l'intelligenza artificiale si assomigliano e in che cosa, invece, non si assomigliano affatto? E non parlo solo della struttura o del funzionamento, ma anche del tipo di pensiero che queste due intelligenze sviluppano. È una domandona, lo so, però tu sei molto bravo…
Sì, ed è una domandona rivolta a un neuroscienziato, il che significa non a un ingegnere, a un fisico o a un esperto di intelligenza artificiale. Quindi, cerco di starci dentro nell'ambito delle mie competenze.
Allora: è indubbio che la nuova intelligenza artificiale, quella generativa di cui stiamo parlando, è in qualche modo il risultato di un cambio completo di strategia, e cioè l'adozione di algoritmi fondati su reti neurali generative. Queste reti neurali, però, pur essendo ispirate al funzionamento del cervello, a quanto ne sappiamo oggi nella migliore delle ipotesi rappresentano un'enorme semplificazione del funzionamento del cervello. Quindi, un primo dato è che l'intelligenza artificiale assume un modello semplificato del funzionamento della rete che compone il nostro cervello.
A questo si aggiunge un secondo dato, e cioè che il funzionamento del cervello stesso ci sfugge ancora in buona parte. Abbiamo fatto dei progressi enormi negli ultimi cinquant'anni, ma nessuno oggi è in grado in qualche di modo spiegare in modo incontrovertibile come da questo groviglio di cellule eccitabili che emettono scariche elettriche nasca l'esperienza, la coscienza. Non lo sappiamo. Ci sono molte ipotesi, e poche certezze.
Terzo dato, questa intelligenza opera su un substrato materiale che non ha un corpo, quindi non è immersa nel flusso della vita, se non indirettamente attraverso ciò che noi umani abbiamo documentato di che cosa vuol dire stare nella vita, il che è già comunque un enorme passo avanti. L'intelligenza artificiale, quindi, fonda le sue performances, unicamente traguardando quello che noi umani abbiamo creato nella nostra storia. Tutto ciò che noi umani abbiamo creato ed è in qualche modo documentabile, in termini di immagini di filmati, di scritti, è stato reso accessibile a questi algoritmi. E questi algoritmi hanno delle capacità computazionali super umane.
Quindi, al di là del fatto che sulla stessa definizione di intelligenza non c’è consenso di tutti gli studiosi, nel caso dell’AI abbiamo a che vedere con qualcosa che si nutre dell'intelligenza umana, la elabora e la riconfigura con capacità di calcolo che sono super umane, e tutto avviene con una grande accelerazione, che è un po' la cifra per leggere la nostra contemporaneità. Allora, se mettiamo assieme le tessere di questo mosaico, non ci deve sorprendere - anche se dal mio punto di vista ciò è poco produttivo - che questo impetuoso, velocissimo progresso susciti domande, paure, ansie.
Poi arriviamo a questo disagio profondo delle persone verso l’AI, un sentimento che io vedo tantissimo nei feedback dei lettori e che è al centro dell’ultimo libro che hai appena pubblicato insieme a Stefano Moriggi e Pier Cesare Rivoltella, “Oltre la tecnofobia”. Ma prima vorrei completare quello che stavi dicendo sulle reti neurali come modelli semplificati del cervello umano. L’altro giorno ho raccontato qui di un recente essay di un noto scienziato inglese, Anil Seth, il quale provava a rispondere ad una domanda molto ricorrente e cioè se l’AI abbia o meno una coscienza. Seth alla fine dice: l’AI non ha sicuramente una coscienza al momento, ma visto il progresso tecnologico non posso escludere che l’avrà in futuro. Tu che ne pensi?
Eh… diciamo che li troviamo tutta la gamma… C’è chi andato ancora oltre rispetto a Anil Seth, per esempio un filosofo australiano che ho frequentato durante il mio sabbatico alla Columbia University a New York un anno fa, David Chalmers, che ha scritto questo libro, Reality Plus nel quale dice che è questione di pochi anni: non so dire se cinque o dieci, ma lui scommette su questa ulteriore proprietà dell'intelligenza artificiale, che è quella dell'autocoscienza.
Anche qui però bisogna stabilire che cosa intendiamo per autocoscienza. Se per autocoscienza intendiamo la capacità di prendere delle decisioni autonomamente rispetto alle istruzioni inserite in questi algoritmi - di cui oltretutto sappiamo molto poco per l'opacità delle logiche corporate che governano queste tecnologie - io sinceramente non mi stupirei se questo potesse essere un orizzonte non così incredibile.
Se per coscienza si intende invece esperienza, avere delle emozioni, non di simularle ma di averle genuinamente, per come io guardo alla mente umana, al rapporto che esiste tra cervello e corpo, mi verrebbe da dire che questo è uno scenario impossibile. Sicuramente non sarebbe l'esperienza umana, perché per avere un'esperienza e capire cosa significa stare al mondo c'è bisogno di un corpo, c'è bisogno di un mondo che ti resiste, c'è bisogno dell'alterità dell'altro che è un altro incarnato, qualcosa di diverso dunque da una rete neurale.
La risposta più plausibile alla tua domanda, quindi, è che credo in un futuro in cui si possa e si debba parlare di un'agency autonoma dell'intelligenza artificiale, di una sua capacità di agire. Il che, ovviamente, solleva problemi di varia natura, prima di tutto etici e politici.
Rispetto a questo, ci sono due evoluzioni tecnologiche che forse potrebbero cambiare le carte in tavola. Da una parte la cosiddetta Intelligenza Sintetica Biologica (SBI), ne ho scritto qualche giorno fa, a proposito di questo computer prodotto commercialmente in Australia che ha metà neuroni umani e metà chip e scade dopo sei mesi. Dall’altra la cosiddetta embedded AI, le macchine dotate di AI, i nuovi robot antropomorfi, con cui l’intelligenza artificiale si libera dai nostri computer ed entra nel modo fisico. Pensi che questi due elementi possono cambiare il paradigma della coscienza artificiale di cui parlavi prima?
Penso di sì. Vent'anni fa ho seguito il tema della robotica legato alle neuroscienze, siamo stati coinvolti in un grande progetto europeo sulle Brain Machine Interface, cioè come e in che modo interfacciare un cervello umano con una macchina, che poi è l'idea alla base di Neuralink di Elon Musk. Sfrondando il discorso dagli hype finalizzati a convincere gli investitori, questi studi vengono da lontano, già più di vent'anni fa è stato fatto muovere un braccio robotico a 1000 miglia di distanza registrando i neuroni di un macaco. Quindi diciamo è una ricerca che per i parametri contemporanei si può definire antica. Detto questo, io credo che l'iniezione delle AI nella ricerca non potrà che produrre un'accelerazione enorme, in ogni campo, dallo studio della struttura tridimensionale delle proteine, alla diagnosi oncologica, alla sintesi di nuove molecole, al versante di ricerca che riguarda la creazione di umani sempre più ibridati con le macchine.
Noi siamo veramente all'interno di un cambio di paradigma, e non so nemmeno se è lecito fare paragoni con la prima rivoluzione industriale. Sicuramente, rispetto alla prima rivoluzione industriale, vedo un parallelo con l'invenzione della macchina a vapore e la scoperta delle leggi della termodinamica: prima si costruì una macchina in grado di funzionare e rivoluzionare trasporti, industria, eccetera e solo dopo si arrivò a capire quali erano i principi fisici alla base del funzionamento di queste macchine. Mi sembra che stiamo vivendo un periodo analogo, abbiamo una crescita esponenziale dello sviluppo di questa tecnologia sapendo ancora poco di come funzioni, in parte per limiti intrinseci, in parte per limiti estrinseci, perché finora gran parte di queste tecnologie non sono state open source ma nel pieno possesso di multinazionali private il cui scopo fondamentale ovviamente non è il bene dell'umanità ma massimizzare i profitti e quindi c’è anche questo aspetto che in qualche modo complica le cose…
In effetti è un rischio ulteriore di questa tecnologia. L’altro giorno Sam Altman, CEO di OpenAI e creatore di ChatGPT, che oggi ha quasi un miliardo di utenti attivi a settimana, ha svelato che le nuove generazioni non prendono più decisioni di vita senza prima consultare ChatGPT. A questo aggiungi la proliferazione dei cosiddetti companions, e dei bot che si spacciano per psicoterapeuti. Sta nascendo un nuovo sistema di simulazioni di relazioni soggettive con soggetti che non esistono. Tu che idea ti sei fatto sull'influenza che l'intelligenza artificiale sta avendo sul nostro cervello, o sulla capacità di pensiero critico che normalmente si attribuisce all'uomo?
Allora… la prima affermazione che vorrei fare è che la capacità di pensiero critico non mi sembra un tratto dominante dell'umanità, e questo a monte dell'intelligenza artificiale. Lo dico per motivi intrinseci e cognitivi, cioè legati ai limiti dei nostri apparati cognitivi che sono soggetti ad una montagna di pregiudizi, che conosciamo molto bene. La nostra mente funziona in modo non ottimale, tendiamo spesso a scegliere soluzioni che non sono quelle giuste, ma sono quelle che ci appaiono più convenienti. Siamo inclini ad affrontare i problemi complessi, fermandoci alle soluzioni semplici perché sono rassicuranti, perché ci evitano - apparentemente - di provare ansia in quel momento.
Il secondo aspetto è che comunque parliamo ancora di una fetta ristretta dell'umanità, l'umanità del Primo mondo. Un miliardo su otto miliardi di persone. Mi dirai: beh è una cifra consistente, e probabilmente in espansione. Vero, però tendiamo a dimenticare che gran parte dell'umanità, più che preoccuparsi dei rischi della intelligenza artificiale, deve mettere insieme il pranzo con la cena, e trovare un po' d'acqua per dissetarsi, quindi, diciamo, stiamo parlando di un problema che è un problema soprattutto per il Primo mondo. E qui veniamo a quello che, secondo me, è un nodo centrale mai sufficientemente messo a fuoco. La gran parte del dibattito riguarda che cosa può fare l'intelligenza artificiale, se e quando l'intelligenza artificiale ci sostituirà, discorsi che tradiscono paure in parte giustificate.
Ma il tema fondamentale è quello che sollevi tu con la tua domanda, e cioè: oggi, l'intelligenza artificiale per come la conosciamo in che misura ci cambia? Perché questo è il tema fondamentale: fino ad oggi noi avevamo relazioni interumane in presenza o tuttalpiù mediate digitalmente dai social, ma ora a queste si affiancano sempre più delle relazioni umane con soggettività artificiali, i companions, la stessa ChatGPT o le vare piattaforme di fidanzate e fidanzati virtuali. Cambia qualcosa? Purtroppo, ne sappiamo ancora molto poco, c'è ancora poca ricerca. Ed è una ricerca che richiede grandi investimenti di risorse ma soprattutto di tempo, abbiamo bisogno di grandi numeri e di studi longitudinali (metodologia di ricerca che prevede la raccolta di dati su uno stesso gruppo di individui nel corso di un periodo di tempo molto esteso, ndr).
Ciò che finora si è studiato di più, anche perché è il toolkit più demonizzato, sono i social, perché è dal 2007, quindi già più 15 anni che noi umani traffichiamo con queste tecnologie digitali. Oggi così ne sappiamo molto di più su come si sviluppa il rapporto interumano attraverso la mediazione digitale, ed abbiamo appreso che il nostro cervello funziona in maniera molto simile quando io parlo con te davanti ad uno spritz o quando parlo con te con la mediazione digitale di questo schermo. Tra l’altro, una cosa a cui molti non pensano è che gran parte delle cose che noi sappiamo del nostro cervello, per esempio come risponde al mondo fisico, deriva da esperimenti in cui noi prendiamo un soggetto gli mettiamo in testa un casco con 128 elettrodi e gli facciamo vedere il mondo su uno schermo bidimensionale. Il nostro cervello tratta questi mondi paralleli digitali in maniera non molto diversa da come tratta il mondo della presenza fisica. Prendiamo ad esempio il comportamento dei neuroni specchio nel macaco: se gli fai vedere un'azione eseguita da un essere umano in carne ed ossa e poi la stessa azione sullo schermo bidimensionale di un computer, la gran parte dei neuroni risponde ad entrambe le situazioni: metà un po' di più all'umano in carne ed ossa, l'altra metà non ha preferenza.
Questo per dire che fino all’AI, quando noi entriamo nella mediazione digitale come io e te ora, non è che io accendo l'interruttore e si attiva il cervello per il digitale che è diverso dal cervello per il mondo fisico. Ma questo cambia radicalmente quando l'altro con cui mi relaziono non è più Matteo Montan filtrato dalla piattaforma ma è un bot tipo ChatGPT, perché in quel caso abbiamo a che vedere con una soggettività completamente altra rispetto alla soggettività umana, anche se filtrata dal digitale. ChatGPT è lì per blandirti, per assecondarti, per scusarsi ogni volta che non asseconda le tue domande o le tue richieste. Nel mondo reale invece l'altro essere umano molte volte mi resiste, e nelle relazioni interpersonali, anche mediate digitalmente, si crea una frizione con la mia soggettività.
Il problema è che l'alterità simulata dai chatbot opera secondo una logica completamente diversa. L’altro giorno ho fatto un piccolo esperimento, ho chiesto a ChatGPT: ma secondo te, l'intelligenza artificiale riuscirà un giorno a essere autocosciente? E lui mi ha risposto di no, e man mano che argomentava, mi sembrava di leggere uno dei miei lavori. Allora l'ho fermato e gli ho detto: le tue tesi suonano stranamente molto simili alle le mie, se la stessa domanda te l'avesse fatta David Chalmers (quello di Reality Plus di cui parlavamo prima) avresti dato le stesse risposte? E il bot mi ha immediatamente risposto di no. E mi ha detto perché secondo lui, cioè secondo il soggetto con cui mi stavo relazionando che era ChatGPT nei panni di David Chalmers, questo era possibile.
Allora, il punto qual è? Se noi trascorriamo sempre più tempo relazionandoci con un soggetto artificiale come ChatGPT, siccome il nostro cervello è altamente plastico e quindi è plastico non solo quando impariamo a camminare o andare in bicicletta, ma anche quando ci interfacciamo con una soggettività artificiale come ChatGPT, poi è possibile che quando spengo il computer e esco nel mondo reale, questo modello di relazione plasmato da un soggetto che è lì solo per assecondarmi è possibile che generi in me delle aspettative anche quando incontro un essere umano in carne ed ossa. Questo è il rischio maggiore che vedo, al momento.
Prospettiva piuttosto inquietante in effetti. Aggiungo un elemento di preoccupazione: nei giorni scorsi scrivevo di questo esperimento condotto da un gruppo di ricercatori svizzeri che dimostravano come i chatbot nelle discussioni uno a uno con gli esseri umani riescano ad essere più persuasivi dello stesso umano, soprattutto quando hanno informazioni su di te, che è un po' quello che dicevi tu rispetto a Gallese e a Charles: se io so chi sei, so come blandirti meglio. E se pensi che OpenAI sa un sacco di cose su te, me e 1 miliardo di altre persone, very scary…
Sì l'ho letto anch'io, su Nature Human Behaviour. Beh, certo, qui entriamo in un altro ambito ancora, che è l'impatto che l’uso di questa tecnologia può avere sulla politica. Per questo dico che bisogna studiare molto di più. E bisogna bypassare quest'idea che contrappone un'ipotetica naturale genuinità umanistica dell'essere umano, a un ruolo di perversione di questa supposta autentica umanità da parte della tecnologia. Perché l'Homo sapiens, come dicevo prima, è symbolicus ma solo perché è tecnicus, cioè noi siamo la tecnologia. Questo l'ha detto un sacco di gente prima di me, Simondon e, in tempi più recenti, Stiegler. Ecco, bisognerebbe andarsi a leggere questi autori prima di cianciare di una tecnologia vista in contrapposizione alla benevola, o malevola, ma comunque genuina natura umana. Noi siamo la tecnologia. Senza tecnologia non c'è sapiens, perché il sapiens è sapiens in buona misura perché è tecnico. Perché dall'invenzione del fuoco a ChatGPT è un percorso di continuo progresso tecnologico. E quando io sento dire: ma il telefonino cambia il cervello dei nostri ragazzi. E certo che lo cambia, perché l'invenzione della scrittura non ha cambiato il nostro cervello? L'invenzione del fuoco non ha cambiato il nostro cervello? L'invenzione della ruota non ha cambiato il nostro cervello? Il cervello è un'interfaccia, quindi c'è sempre un loop. Noi con la nostra intelligenza cambiamo il mondo. Il mondo cambiato dalla nostra intelligenza cambia la nostra intelligenza. È un ciclo che non si interromperà mai, men che meno con l'intelligenza artificiale.
Quello che dici mi porta diritto al titolo del tuo ultimo libro: Oltre alla tecnofobia. Provo a iper-semplificare la tesi del libro: la tecnologia è uno strumento, ad ogni rivoluzione tecnologica proviamo paure catastrofiche, ma in realtà è un errore demonizzare la tecnologia perché, come dici tu, noi siamo la tecnologia, quindi occorre imparare ad usarla, conoscerla eccetera. Pensi però che questa tesi sia applicabile anche all'intelligenza artificiale? Nel senso: a me pare che sia la prima volta che una tecnologia ha nell’ordine capacità di apprendere, di superare potenzialmente il suo creatore, di prendere decisioni autonome - pensiamo ai cosiddetti killer robots - e di autoreplicarsi… Queste 4 caratteristiche a me fanno dire che siamo di fronte a una tecnologia diversa da tutte le precedenti: sei proprio sicuro che si possa andare oltre la tecnofobia anche nel caso dell’AI?
Ma sì. Allora, saperla usare è sempre il primo ingrediente, intendo saperla usare in modo critico. Il secondo è capire come funziona. Questa antropomorfizzazione dell'intelligenza artificiale, secondo me, è anche una facile scorciatoia per non vedere che all'origine di questa tecnologia non c'è l'intelligenza artificiale, c’è l'intelligenza umana. E che l'uso di questa tecnologia, il modo in cui viene impiegata, gli scopi per cui viene adottata sono tutti un affare nostro, interumano.
Tu citavi l'uso bellico dell'intelligenza artificiale. Ma anche qui io non vedo niente di nuovo sotto il sole. Una delle metafore visive più potenti di che cosa vuol dire diventare umani ce l'hai nella prima parte di “2001 Odissea nello spazio”. Quando lo scimmione scopre che l'osso del tapiro non è solo un pezzo di una carcassa di un animale morto, ma un utensile. E che utensile gli viene in mente? Una clava, per uccidere altri tapiri prima e altri conspecifici poi. Questo passare dalla tecnologia al suo uso bellico non dipende dalla tecnologia: è chiaro che l'algoritmo che guida un drone è qualcosa di molto diverso da una clava, ma dietro ai bottoni o alla mano che tiene la clava c’è sempre un essere umano, o un ominide come nel caso del film di Kubrick. E questo è un problema fondamentalmente di tipo etico politico, più che scientifico.
E infatti dei cosiddetti Lethal autonomous war system, o LAWS, se ne sta occupando l’ONU, chiedendo a gran voce di regolare, queste armi che già ora, in diversi scenari di guerra, grazie all’AI sono in grado di decidere autonomamente chi e cosa colpire. Per quanto terribile, questo è solo uno dei potenziali di questa tecnologia profondamente dual use, civile e militare… Parliamo di potenziali positivi, dell'applicazione dell'intelligenza artificiale alla ricerca scientifica che tu fai: pensi che l’AI aiuterà a capire finalmente il mistero del cervello umano?
Diciamo che le neuroscienze oggi grazie ai progressi tecnologici, sono in grado di acquisire una mole di dati inimmaginabile rispetto agli inizi. Quando ho cominciato io, a parte che gli elettrodi ce li facevamo a mano, i neuroni li registravamo uno alla volta. Oggi i colleghi che lavorano sul modello animale in ogni esperimento sono in grado di registrare molte centinaia di neuroni. L’analisi di questa enorme quantità di dati chiaramente richiede una potenza di calcolo che ti può dare solo l'intelligenza artificiale, che poi ha un altro valore aggiunto: l’AI è in grado di vedere degli elementi che l'occhio umano in senso metaforico - nel caso della radiologia anche proprio in senso fisico - non è in grado di vedere. Può vedere delle connessioni, delle correlazioni che è possibile mettere in luce solo con quel livello di computazione che, come dicevamo all'inizio è super umano, e che trascende le capacità anche del più esperto neuroscienziato, del più esperto anatomopatologo, del più esperto radiologo. Un radiologo in tutta la sua carriera può vedere qualche migliaio di lastre, o di risonanze magnetiche. Questi sistemi hanno accesso a miliardi di immagini, ma soprattutto hanno un approccio al confronto completamente diverso da quello umano. Noi continuiamo a parlare di immagini digitali perché le vediamo e quindi le trattiamo esattamente come trattiamo le riproduzioni analogiche del mondo che guardiamo: i dipinti, le sculture, i film, dimenticando che queste non sono solo immagini, ma sono soprattutto dati. E in quei dati l'occhio tra virgolette, anzi doppie virgolette, dell'algoritmo, vede cose che l'occhio umano non è in grado di vedere, e questo vale a tutti i livelli. Quindi, le potenzialità di sviluppo dell’AI in questo campo sono enormi, così come le necessità di ripensare in gran parte il mondo del lavoro: oggi, per esempio, essere creativi può voler dire anche essere capaci di costruire un prompt di un certo tipo e non di un altro.
Ecco… parliamo di creatività nell’era dell’AI, un tema centrale per i lettori di questa newsletter. Come cambia?
La creatività cambierà lavorando sempre più in simbiosi con la macchina, che poi dovremmo chiamare più propriamente algoritmo. L’algoritmo non è che una nuova versione delle migliaia di protesi cognitive che ci siamo inventati, ma opera con una logica nuova, tutta sua: dall'interfaccia con questa protesi io posso trarre il meglio solo se so cosa chiedere e come chiederlo. E quindi qui ci vuole quantomeno una riconfigurazione di una parte del sistema educativo, che non significa però chiudere i dipartimenti di scienze umane come sta avvenendo negli Stati Uniti. Quella, secondo me, è una follia. Se l'obiettivo è trasformarci in macchine, quindi diventiamo noi le bioprotesi di un agente artificiale, allora possiamo certamente fare meno di Omero, di Ovidio, di Platone, di Dostoevskij, eccetera. Ma se lo scopo, come credo dovrebbe essere, è quello di ampliare in qualche modo le capacità creative dell’umanità per risolvere la montagna di problemi che abbiamo sul desk - climatici, energetici, di diminuzione delle risorse che peraltro questa stessa tecnologia crea - sarebbe assurdo che l'intelligenza artificiale, che è così potente proprio perché in grado di alimentarsi con tutto ciò che l'umanità ha creato, potesse leggere Platone e noi no!
Siamo arrivati all’ultimo tema di cui volevo parlare, quello dell'impatto dell’AI sull’education, lo dico all’inglese. Forse è meno drammatico della sostituzione sul lavoro, ma strategicamente è ancora più devastante. L’AI sta trasformando a velocità impensate il modo con cui le persone apprendono e fanno le cose: e i sistemi educativi come si stanno adeguando?
Dal mio punto di vista i sistemi educativi si stanno adeguando poco e male. Gli adeguamenti di cui leggiamo quotidianamente sui giornali sono quelli che implicano il proibizionismo. E il proibizionismo a sua volta è generato dall'allucinazione collettiva, secondo cui la causa dei supposti mali che colpiscono le giovani generazioni - ansia, suicidi, autolesionismo - è tutto colpa del telefonino. Quindi, a problema complesso, soluzione semplice: aboliamo il telefonino, lo proibiamo. Nel libro “Oltre la tecnofobia” parliamo diffusamente di questi temi e proponiamo delle strategie di coping. Fondamentalmente, l’unica strada è educare ad un uso critico della tecnologia, ma è inimmaginabile farlo nelle scuole e università del 2025 facendo finta di vivere nel 1999 o anche nel 2010. Il mondo non è più quello, la tecnologia non è più quella.
La nostra intelligenza è un'intelligenza tecnologica da sempre protesizzata, e ogni nuova protesi bisogna imparare ad usarla in modo consapevole, a trarne il meglio. Dobbiamo essere noi a tenere le redini dell'intelligenza artificiale, perché se noi diventiamo degli utilizzatori passivi, il rischio è quello che dicevo prima: è la macchina che informa l'esistenza umana, e non l'esistenza umana che usa la macchina per potenziarsi. Per fare i conti con un mondo che non è più quello, il sistema educativo richiede innanzitutto investimenti. Ma a prescindere dalle nuove tecnologie, si investe poco nell'educazione, nella scuola, nell'università, nella ricerca e questo è un problema trasversale a qualsiasi maggioranza politica abbia governato il nostro Paese negli ultimi quarant'anni. Non è un problema di chi governa, è un problema di totale mancanza di sensibilità. In un'economia che definiamo cognitiva, noi dovremmo potenziare la cognizione e per farlo dovremmo potenziare l'educazione e la ricerca in generale, in particolare la ricerca scientifica. Invece, rispetto alle nuove tecnologie, la prima cosa che ci viene in mente è il divieto, un divieto che oltretutto non ha nessuna possibilità di avere successo, vista la pervasività dello spazio virtuale. Vieti il telefonino a scuola, ma poi appena escono lo accendono, cerchi di controllare i siti e metti dei filtri, ma l'amico che non ha il filtro ha accesso a quelle informazioni e le condivide.
La soluzione non è proibire, è rendere gli individui consapevoli, e per farlo occorre mettere le mani nella tecnologia. Diversi anni fa, visitando Reggio Children, ho potuto vedere che cosa facevano nelle scuole materne dell'infanzia: facevano giocare i bambini con le webcam, le lavagne luminose, le fotocamere digitali, e tu devi vedere la creatività che erano in grado di tirare fuori.
Più in generale, io credo che il nostro sistema educativo faccia molto poco per suscitare la curiosità, le domande. E’ dalle domande che nascono le risposte, e con delle risposte preconfezionate nel migliore dei casi tu crei un'intelligenza conformista, passiva. Nel sistema educativo in Italia oggi, invece, la pedagogia della domanda prevale solo all'inizio ed alla fine, cioè nella scuola materna e nel dottorato di ricerca. E perché? Perché sono due ambiti in cui c'è una grande libertà, perché il dottorando ha la libertà di proporre un tema, perché c'è un enorme spazio alla creatività, una creatività che non nasce dal nulla, ma nasce dall'acquisizione degli strumenti che la rendono possibile.
Matteo Montan
PS So che avete la testa che vi fuma, ragazzi, ma questa oggi è troppo bella. Proibizionismo alla cinese: per 3 giorni tutte le bigtech cinesi hanno sospeso all’unisono i loro chatbot AI per impedire di barare agli oltre 13,3 milioni studenti che dal 7 al 10 giugno erano impegnati nei cosiddetti "gaokao", l’esame nazionale indispensabile per accedere all'università. Imbattibili.
PPS Se vuoi altre newsletter come questa, dai un’occhiata a Newsletterati