Hello humans,
io sono Matteo Montan e questo è il Lunch Break di oggi proposto da [humans/AI] Per saperne di più su questa newsletter vi rimando alla pagina delle Info dove potrete familiarizzare con il progetto editoriale e il suo autore. E ora, andiamo!
***
Oggi volevo parlarvi di un tema che trovo molto suggestivo, cioè il fatto che sempre più spesso si creano delle interconnessioni tra l’intelligenza artificiale e il cervello umano. Ovviamente è un tema immenso, e parto dalla consapevolezza collettiva che nessuno ha potuto spiegare fino in fondo né come funziona il cervello umano né la sua replica sintetica (i modelli di AI).
Non per questo, però, penso che non se ne debba parlare in un conteso divulgativo di alto livello (cioè che non si addentra in particolari che il 99% di noi non capirebbe) come è di fatto [humans/AI]. La mia funzione, quindi, in questi casi è quella di condividere notizie che magari non avete visto altrove, connetterle, e trasmettervi la suggestione che a me hanno creato, dando a tutti la possibilità di approfondire a piacere attraverso i link che fornisco. Avvertenza importante: in questi casi mi premuro di verificare, con i mezzi che ho a disposizione, l’attendibilità degli studi che vengono divulgati, dei loro autori e degli eventuali interessi che questi hanno in qualche modo correlati agli studi che hanno prodotto. Per altro, nel caso di oggi, entrambi gli studi se portati avanti potrebbero avere importanti effetti positivi sulle persone affette da gravi problemi neurologici.
L'AI che decodifica il tuo pensiero usando quello degli altri
La prima notizia riguarda uno studio realizzato da un team di neuroscienziati dell'Università del Texas che è uscita qualche giorno fa su ScienceDirect, piattaforma che pubblica studi peer-reviewed (in questo caso sulla rivista Current Biology) e ripresa da Livescience.
La ricerca parla di un nuovo modello di intelligenza artificiale che aiuta a decodificare i pensieri di una persona con scansioni cerebrali (MRN) sorprendentemente brevi rispetto al passato. In realtà, già questa per me è una notizia, non sapevo che già da tempo i ricercatori utilizzassero risonanza magnetica integrata a modelli di AI progettati specificamente per interpretare l'attività cerebrale. Il problema, ho capito oggi, è che finora questi sistemi richiedevano mesi di scansioni per funzionare solo su una singola persona. Il nuovo modello testato in Texas, invece, utilizza un "traduttore cerebrale" che è stato pre-addestrato sull'attività cerebrale di altre persone. Ciò significa che può essere utilizzato su un nuovo individuo solo con una breve sessione di "calibrazione". Proviamo in super sintesi a capire cosa è stato fatto dai ricercatori del Texas.
Nella prima fase del loro esperimento, hanno utilizzato la risonanza magnetica funzionale (fMRI) per misurare l'attività cerebrale di tre persone mentre ascoltavano storie narrative per ore.
Hanno quindi utilizzato questi dati per addestrare un nuovo modello di AI a collegare le attività cerebrale con i significati di parole e frasi.
Successivamente, hanno voluto capire se questo modello poteva essere utilizzato per decodificare l'attività cerebrale di altre persone. Hanno chiesto quindi a nuove persone di guardare dei brevi film muti mentre le loro attività cerebrali venivano scansionate tramite fMRI.
Il modello di AI precedentemente addestrato su altri umani ha utilizzato queste scansioni per provare a indovinare a cosa stavano pensando i partecipanti al test mentre guardavano i film. "Non ci credevamo neanche noi, il sistema ci ha permesso di ricostruire la trama dei film che stavano guardando", ha detto il capo ricerca Alexander G. Huth.
I ricercatori poi hanno anche scoperto che il sistema poteva essere utilizzato per decodificare i pensieri delle persone anche quando non stavano guardando nulla. In un altro esperimento, infatti, hanno chiesto ai partecipanti di immaginare di raccontare una storia. Il modello di AI, dice Huth, è stato in grado di utilizzare le loro scansioni cerebrali per indovinare la trama della storia che stavano immaginando.
La ricerca, se sviluppata, potrebbe aiutare le persone affette da afasia o che hanno perso la capacità di comunicare a causa di ictus per esempio. Gli autori per trasparenza segnalano nello studio che stanno brevettando questa tecnologia.
E quella che immagina cosa stai pensando di scrivere
Questa notizia dal Texas mi ha subito richiamato (suggestione) un'altra notizia che avevo letto recentemente e che ci conferma come il confine che separa mente umana e intelligenza artificiale stia diventando sempre più sottile. Mi riferisco ad uno studio di un lab che fa capo a Meta (quindi qui gli interessi privati sono dichiarati up-front, Meta tra le mille cose che fa, sviluppa commercialmente occhiali che integrano i nostri sensi con l'AI) e che ha scoperto attraverso un sistema chiamato Brain2Qwerty che è possibile decodificare fino all'80% dei caratteri che una persona pensa di digitare. Anche qui, qualche dettaglio sull’esperimento:
E’ stato utilizzato una sorta di super scanner che cattura i segnali magnetici del cervello e li interpreta come se fossero tasti premuti su una tastiera invisibile, arrivando a 'fotografare' il momento esatto in cui i pensieri si trasformano in parole.
Anche qui, come in Texas, l'esperimento ha utilizzato l'evoluzione di uno strumento diagnostico, in questo caso una magnetoencefalografia (MEG), che acquisisce questi segnali cerebrali e li invia a un modello AI specializzato per l'interpretazione.
Per l'esperimento sono stati selezionati 35 volontari particolarmente abili nella digitazione veloce, che potevano scrivere senza guardare la tastiera. I partecipanti dovevano leggere, memorizzare e poi digitare delle frasi, mentre il sistema catturava 1.000 immagini dei loro cervelli al secondo, permettendo un'analisi in tempo reale della loro attività cerebrale.
La tecnologia presenta ancora grandi limiti applicativi (stanza schermata dal campo magnetico terrestre e paziente perfettamente immobile) e anche di qualità dell’output (decodifica non ancora perfetta) ma come capirete ha notevoli prospettive in ambito neurologico.
Se avete un po’ di mal di testa è normale, è tutto per oggi, a domani!
Matteo. M
E Elon? Mentre Meta con Brain2Qwerty esplora la decodifica dei pensieri tramite AI, Elon con Neuralink sta già impiantando chip nel cervello umano. Il primo paziente con l’interfaccia neurale è realtà, aprendo scenari che vanno dalla cura delle disabilità fino alla comunicazione diretta tra mente e tecnologia. La sfida tra Elon e Mark ora si gioca anche sul terreno del pensiero… chissà se gli altri big names ci stanno pensando
Mind blowing!