L'AI non ha una coscienza. Per ora
Tre studi super interessanti che esplorano gli universi paralleli e le intersezioni dell'intelligenza umana e di quella artificiale
Hello human,
Io sono Matteo Montan e questa è la rinnovata [humas/AI] Se volete saperne di più su di me e su questo progetto editoriale, trovate tutto nelle Info. E ora, andiamo!
Qualche giorno fa Sam Altman parlando ad un evento di investitori ha proposto una visione dell’AI che mi ha colpito: ChatGPT – ha detto - sarà la memoria della nostra vita. “Penso a un "modello di ragionamento molto piccolo, in cui ognuno può inserire tutta la sua vita. Un modello così può ragionare sull'intero contesto della tua vita e farlo in modo efficiente. E ogni conversazione che hai avuto nella tua vita, ogni libro che hai letto, ogni email che hai scritto, tutto ciò che hai mai guardato è lì dentro, ed è connesso a tutti i tuoi dati che stanno da altre parti. E la tua vita continua semplicemente ad aggiungersi al contesto”.
Quando poi qualcuno dal palco gli ha chiesto di parlare del modo in cui le persone usano ChatGPT (oltre 1 miliardo di utenti/settimana, ndr) Sam si è spinto oltre: "Una semplificazione grossolana è che le persone più anziane usano ChatGPT come un sostituto di Google. Gli studenti dell'università lo usano invece come un sistema operativo: caricano file, connettono fonti di dati, utilizzano prompt complessi per collegare tutto. Più in generale, le persone tra i 20 e i 30 anni lo usano come un consulente di vita: da quello che vedo, i giovani non prendono più decisioni di vita senza chiedere a ChatGPT"
Scontiamo pure il fatto che Altman parlava agli investitori. Dimentichiamoci per un attimo che questa memoria e/o sistema operativo delle nostre vite sia nei server di una o più BigTech (sono almeno 10 anni che demonizziamo i poveri cookies, mi viene da ridere). Anche se la visione di Sam fosse vera per metà, i 2 paragrafi sopra a me bastano per capire l’enormità dell’AI: non avrà ancora battuto il cancro, ma sta plasmando il modo di di pensare di intere nuove generazioni di esseri umani, in modo molto molto più profondo e strutturale di quanto non abbiano fatto i social. Lì si parlava di apparire, qui di essere.
Questa notizia che ho scelto per il nuovo inizio di [humans/AI] mi conduce dritto al dritto al punto di intersezione tra alcuni dei grandi temi che ho anticipato nel mio post di ripartenza . Parlo del funzionamento delle menti artificiali, di quelle umane e degli infiniti incroci tra queste forme di intelligenza. Ho preso spunto da tre studi che ho letto negli ultimi giorni e che esplorano con approcci molti diversi gli universi paralleli dell’AI e del nostro cervello, descrivendo bene l’immensità, ma anche la relatività, di questa materia. (Tra l’altro - vi anticipo – il nodo “artificial & human intelligences” sarà il cuore della prossima intervista che sto preparando, stay tuned).
Le allucinazioni dell’AI assomigliano all’afasia umana
Il primo studio è stato pubblicato da un gruppo di ricercatori dell'International Research Center for Neurointelligence dell’Università di Tokyo guidato dal professor Takamitsu Watanabe. L’obiettivo suo e del suo team è comprendere i meccanismi neurobiologici alla base dei vari tipi di intelligenza, umana e artificiale. Nel suo ultimo lavoro, il team di Watanabe ha identificato una sorprendente analogia tra il funzionamento dei grandi modelli linguistici (tipo quello che sta sotto a ChatGPT) e i cervelli delle persone affette da una particolare forma di afasia, detta “di Wernicke”. Entrambi mostrano un'elaborazione linguistica caratterizzata da output fluente ma spesso incoerente o impreciso (nel caso dell’AI sono le famose allucinazioni).
I ricercatori hanno esaminato l'attività cerebrale di pazienti con diversi tipi di afasia, confrontandola con i dati interni di vari LLM disponibili pubblicamente, scoprendo che il flusso di informazioni all'interno dei modelli di AI rispecchia il comportamento dei segnali cerebrali nei pazienti con afasia. Watanabe racconta di avere osservato come, in entrambi i casi, i segnali seguano percorsi rigidi che limitano la flessibilità nell'accesso alle informazioni memorizzate.
Come spesso capita in questo ambito “ibrido” di ricerca, il team giapponese vede un possibile doppio impatto positivo: nel campo delle Neuroscienze, la scoperta potrebbe portare a metodologie diagnostiche più precise e ad una comprensione più approfondita dei meccanismi neurali alla base dei disturbi del linguaggio; nel campo dell'ingegneria dell'intelligenza artificiale, ispirare nuovi strumenti di analisi per migliorare l'architettura dei modelli.
Gli agenti AI creano convenzioni sociali come gli umani
Il secondo studio, realizzato da City St George's University of London e IT University di Copenhagen, rivela un’altra analogia sorprendente: gli agenti AI quando comunicano in gruppi senza un intervento esterno, possono adottare forme linguistiche e norme sociali in modo analogo agli esseri umani durante la socializzazione.
Lo studio, ha adottato un approccio nuovo, trattando l'AI come entità sociale piuttosto che solitaria. Nei vari esperimenti, un centinaio di agenti sviluppati su modelli LLM diversi sono stati accoppiati casualmente ed invitati a giocare una serie di “partite” in cui ogni agente doveva scegliere un "nome" da un insieme di opzioni. Ad ogni turno, gli agenti venivano premiati quando entrambi sceglievano lo stesso nome e penalizzati quando operavano scelte diverse, mostrando a ciascuno le scelte dell’altro.
Man mano che le partite andavano avanti, i ricercatori hanno osservato che gli agenti accumulavano una memoria delle partite passate, che poi utilizzano per "indovinare" le parole scelte dai loro successivi partner. In questo modo, dopo una fase iniziale in cui diversi nomi risultavano ugualmente popolari, gli agenti convergevano su un nome che diventava rapidamente dominante. Tra l’altro la velocità di convergenza su di un nome è stata simile per I vari modelli utilizzati per l’esperimento.
I ricercatori spiegano che il fenomeno riscontrato tra gli agenti imita sorprendentemente le norme comunicative della cultura umana, dove convenzioni linguistiche si formano attraverso interazioni ripetute senza coordinamento centrale. La ricerca ha poi dimostrato con un altro esperimento che piccoli gruppi di agenti AI sono stati in grado di orientare l'intero gruppo verso una nuova convenzione, evidenziando dinamiche di massa critica analoghe a quanto avviene nella società umana, in cui una minoranza determinata ma ridotta può innescare un rapido cambiamento nel comportamento del gruppo una volta raggiunta una certa dimensione.
L’italiano Andrea Baronchelli, professore di Complexity Science alla City St. George ed autore senior dello studio sottolinea come questa ricerca apra nuovi orizzonti per la ricerca sulla sicurezza dell'AI: “Comprendere come gli agenti artificiali sviluppino autonomamente convenzioni sociali è fondamentale per guidare la nostra coesistenza con l'intelligenza artificiale. Stiamo entrando in un mondo in cui l'AI non si limita a parlare, ma negozia, si allinea e talvolta è in disaccordo su comportamenti condivisi, proprio come gli esseri umani”.
L’AI non ha la coscienza. Per ora
La missione dello neuroscienziato inglese Anil Seth è spiegare cosa è la coscienza.
In un articolo pubblicato recentemente sul magazine BigThink, intitolato The illusion of conscious AI (sottotitolo: Nobody expects a computer simulation of a hurricane to generate real wind and real rain) il noto ricercatore ed autore di best seller sembrerebbe a prima vista negare l’esistenza degli universi paralleli tra cervello umano e intelligenza artificiale che abbiamo esplorato poco sopra. In realtà, a leggere bene, non è proprio così.
Anil Seth parte da una dichiarazione fatta di recente da un ricercatore di Anthropic (il Lab di Claude) secondo il quale esiste una probabilità del 15% che gli attuali chatbot siano già coscienti. In realtà, secondo il neuroscienziato inglese, le probabilità di una vera coscienza artificiale sono molto inferiori rispetto a quanto comunemente si pensi.
Seth, che sull’incontro tra neuroscienze e AI ha scritto il libro "Being You", espone 3 ragioni per cui si tende a sovrastimare la probabilità che le macchine siano dotate di coscienza.
La prima ragione – dice - risiede nella nostra predisposizione psicologica a presumere che intelligenza e coscienza vadano di pari passo, mentre non esiste necessariamente una correlazione universale tra questi due fenomeni. “E’ soprattutto il linguaggio - dice Seth - che rafforza questi pregiudizi, spingendoci a interrogarci sulla coscienza di Claude di Anthropic (probabilmente il chatbot con la conversazione più sofisticata, ndr) ma non su quella di AlphaFold di DeepMind, che è il modello di AI dedicato alla previsione delle strutture proteiche”.
La seconda ragione è l'assunzione che il cervello biologico sia una sorta di computer. Se così fosse, dice il neuroscienziato, tutto ciò che dipende dalla sua attività – intelligenza o coscienza – dovrebbe essere in linea di principio replicabile in una alternativa al silicio. Invece, studi approfonditi rivelano che il cervello è profondamente diverso da un computer: non esiste una divisione netta tra "mindware" (diciamo per approssimazione il software mentale, ndr) e il "wetware" (con altrettanta approssimazione, l’hardware del cervello, ndr ) come invece esiste tra hardware e software nei dispositivi elettronici, e persino un singolo neurone è una fabbrica biologica estremamente complessa. La metafora cervello-computer rimane solo una metafora, e confonderla con la realtà è fuorviante.
La terza ragione è che nessuno sa esattamente come e perché emerga la coscienza. “Certamente - scrive Seth - esistono altre possibilità oltre a quella che sia un algoritmo. Una possibilità che esploro nella mia ricerca è che la coscienza derivi dalla nostra natura di creature viventi: che sia la vita, piuttosto che l'elaborazione di informazioni, ad accendere le equazioni della coscienza."
Quindi? La coscienza artificiale parrebbe altamente improbabile con le attuali forme di AI. Seth però non esclude che alcune emergenti tecnologie neuromorfe sempre più simili al cervello possano in futuro spostare l’ago. E comunque, anche un'AI che appare cosciente senza esserlo può sfruttare le nostre vulnerabilità psicologiche e distorcere le nostre priorità morali.
Di fronte a questa incertezza, le cose da fare, secondo Seth, sono due:
Primo: non tentare deliberatamente di creare una AI cosciente
Secondo, distinguere attentamente le implicazioni etiche di un'AI che effettivamente è cosciente da quelle di un'AI che sembra essere cosciente: “Le incertezze esistenziali della prima non devono distrarci dalle minacce reali e tangibili della seconda”.
E’ tutto per oggi, ci sentiamo venerdì!
Matteo M
PS Se avete ancora un po’ di potenza di calcolo mentale per esplorare un’altra intersezione tra neuroscienze e tecnologia, guardatevi il sito di Bradford Smith, la terza persona al mondo ad essersi impiantato Neuralink (l’interfaccia cervello-computer creata da Musk), la prima con la SLA. “Grazie a questa tecnologia – dice - posso controllare il computer con la mia mente”. E’ tetraplegico, vive attaccato ad un ventilatore, ma sta scrivendo un libro e posta su Substack.
PPS Se vuoi altre newsletter come questa, vai su Newsletterati
Letto tutto d'un fiato.Grazie.
"non tentare deliberatamente di creare una AI cosciente". Paura grande.
che ce l'abbia o meno questa coscienza, certamente la scatena. Delizioso primo episodio della nuova stagione di human/Ai