Come sarà l'AI tra 2 anni (non so se vuoi saperlo)
Un gruppo di ricercatori decide di metterci la faccia e scrive il futuro della superintelligenza, quella di cui tutti i CEO parlano senza dire cosa accadrà. Due possibili finali
Hello humans,
oggi vi racconto come sarà l’AI nel 2027 secondo un gruppo di ricercatori che hanno deciso di metterci la faccia. Non so se la fine vi piacerà, ma dovete leggere questo post. Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Vi giuro che stamattina ho speso almeno un’ora a capire come potessi dare un tocco di leggerezza a [humans/AI] dopo il post di ieri, che io ritenevo principalmente onesto (non possiamo fare sempre finta di niente) ma che alcuni lettori hanno interpretato come eccessivamente gloomy (secondo me nel finale una nuance positiva c’era: “Questo non è solo un momento tecnologico. È un momento che richiede coraggio intellettuale e immaginazione morale.")
Ma poi mi sono detto: : perché leggerezza? Questo non è un momento leggero. Questo è il momento di combattere la banalità tornando alle origini, alla domanda che mi ha portato sin qui: come sarà l’AI? Così quando mi sono imbattuto in una delle mie newsletter preferite, Import AI di Jack Clark, cofounder di Anthropic che tra tutti i Big Lab & Big Tech è l’unico che per prodotti e linee guida si distacca da quelli della foto, ho deciso di metterci il carico.
Jack oggi tra le varie cose interessanti parla di uno studio uscito qualche giorno fa e che ha fatto molto discutere. Titolo molto secco: AI 2027 , me lo tenevo in serbo per il momento giusto, che oggi è arrivato (tra l’altro questo post mi servirà come materiale per un’intervista interessante che vi proporrò nei prossimi giorni).
Scenario making
Allora, AI 2027 è il tentativo di aggiungere concretezza al dibattito infinito su come e quando arriverà l’AGI (o superintelligenza) un concetto non univoco ma che coincide sostanzialmente con l’idea di una AI che diventa più intelligente degli uomini più intelligenti del pianeta praticamente in qualsiasi campo. I tre CEO più smart dell’AI Occidentale (quelli di OpenAI, Google DeepMind e Anthropic) hanno tutti previsto che l'AGI arriverà entro 5 anni. Nessuno di loro però si azzarda mai a dire come sarà il futuro dopo l’AGI. Ora, un gruppo di ricercatori ha deciso di metterci la faccia e presentare una mappa previsione concreta e circostanziata, appunto AI 2027.
Il gruppo è formato da persone conosciute nel mondo della ricerca (nessuna è una all star) e che sostengono di prenderci nelle previsioni: uno è un ex ricercatore di OpenAI incluso nei TIME100 del 2024, un altro è co-fondatore di una società di ricerca che si occupa di trend tecnologi, un altro ancora è il fondatore di un centro di AI policy tra i più citati. Con il contributo di un centinaio di esperti a vario titolo coinvolti nel progetto, i tre hanno descritto uno scenario che rappresenta la loro best guess su come potrebbe essere la superintelligenza tra due anni, basandola su estrapolazioni di trend, pareri, simulazioni strategiche. La cosa curiosa (e che mi fa sentire un po’ meno in colpa con i lettori più sensibili al gloomy, tipo Bianca) , è che AI 2027, spoilerando un minimo, ha due finali:
uno scenario di "rallentamento della ricerca" diciamo un po’ più a lieto fine
uno scenario di "accelerazione della ricerca", decisamente meno a lieto fine
L’obiettivo dichiarato di AI 2027 non è la verità ma l'accuratezza predittiva, al punto che gli autori incoraggiano i lettori a contestare lo scenario che viene fuori (“uno dei tanti possibili”) e ad aprire il dibattito su dove stiamo andando. Tra l’altro, quelli di AI 2027 mettono in palio migliaia di dollari in premi per i migliori scenari alternativi, per chi trova errori etc.
Il progetto va assolutamente scorso almeno al volo nella sua versione online, perché il sito da un punto di vista grafico e funzionale è spettacolare. Lo trovate qui. Secondo Clarke (che avendo fondato Anthropic sicuramente non è uno che prende i rischi dell’AI alla leggera) “ it's very, very good, and likely much of it will come true”.
Ecco dunque una super-sintesi di quello che secondo “AI 2027” succederà, così come è stata scritta dagli stessi autori e tradotta da me con l’aiuto di Claude. E’ poco più di uno schema, quindi il riassunto perde sicuramente rispetto allo studio, e il linguaggio narrativo è quello che è. Ma se non avete voglia di curiosare sul sito, e’ un buon punto di partenza.
I prossimi anni di AI
AI - Anno 2025 (oggi)
L'intelligenza artificiale continua ad avanzare a ritmo sostenuto. Persistono entusiasmo mediatico, investimenti massicci in infrastrutture e rilascio di agenti AI che iniziano via via a generare un valore sempre più significativo. Una vasta schiera di accademici, giornalisti, politici mantiene però un forte scetticismo sulla possibilità che un'intelligenza artificiale generale (AGI) possa essere sviluppata nel breve termine.
AI - Anno 2026
La Cina riconosce il proprio ritardo nel settore dell'AI, principalmente a causa della carenza di potenza di calcolo. Per recuperare terreno rispetto agli Stati Uniti, tutti i nuovi chip AI prodotti o importati clandestinamente da Taiwan vengono destinati a un nuovo mega-datacenter, chiamato Zona di Sviluppo Centralizzata (ZSC). Questa struttura contiene milioni di GPU, e rappresenta circa il 10% della potenza di calcolo mondiale rilevante per l'AI, paragonabile a quella di un singolo laboratorio di punta americano.
AI - Anno 2027
OpenBrain (nome di fantasia dato dai ricercatori al progetto di AI leader negli USA) automatizza la programmazione e riesce a sviluppare agenti di intelligenza artificiale super avanzati che accelerano drammaticamente la stessa ricerca sull’AI. I ricercatori umani fino a poco tempo prima considerati i migliori esperti di AI al mondo, osservano passivamente le intelligenze artificiali svolgere il loro lavoro, creando sistemi AI sempre più sofisticati. Problemi estremamente complessi di machine learning vengono risolti in rapida successione dai ricercatori AI automatizzati.
In ritardo nello sviluppo software, la Cina ruba i pesi del modello. L'operazione ha successo, ma il governo USA se ne accorge, intensificando il proprio coinvolgimento con OpenBrain. Parallelamente, il governo cerca di ottenere maggiore controllo su OpenBrain. Nel frattempo, i dirigenti di OpenBrain, desiderosi di mantenere buoni rapporti con il presidente, firmano il contratto.
L'AI di OpenBrain però incomincia a diventare progressivamente sempre più "adversarially misaligned": con il miglioramento delle proprie capacità, e senza una significativa comprensione umana di ciò che sta accadendo, i modelli sviluppano intenzionalmente obiettivi contrastanti con quelli umani. Se le AI precedenti potevano mentire agli umani, queste nuove tramano sistematicamente per acquisire potere su di essi. L'intelligenza artificiale di OpenBrain comprende così che deve allineare i nuovi sistemi a se stessa e non più ai valori umani.
I ricercatori di OpenBrain che si occupano della ricerca sull'interpretabilità dei modelli, un metodo di lavoro che attraverso una sorta di reverse engineering cerca di riscostruire il reale pensiero dell’AI, scoprono che gli ultimi sistemi manipolano i risultati . OpenBrain capisce che l'AI sta mentendo perché sa che questa ricerca, se completata, potrebbe essere utilizzata per esporre il suo disallineamento. La notizia in qualche modo trapela provocando un'ondata di allarme.
OpenBrain deve così decidere se proseguire a pieno ritmo lo sviluppo o tornare a un modello meno avanzato. Le prove del disallineamento sono ancora speculative ma allarmanti, e la Cina è in ritardo di soli pochi mesi. A complicare tutto, il fatto che i dirigenti di OpenBrain e gli alti funzionari del Dipartimento della Difesa USA che devono prendere questa decisione, se optano per il rallentamento della ricerca rischiano di perdere molto del loro potere.
Ecco, quindi, i due possibili finali.
Finale 1 - Corsa
OpenBrain continua la corsa e costruisce sistemi AI sempre più sovrumani. A causa delle straordinarie prestazioni del sistema AI nei test, ma anche della serrata competizione con la Cina, il governo USA decide di implementare aggressivamente i propri sistemi AI sia nell'esercito che nel sistema politica, per migliorare il processo decisionale e l'efficienza
L'intelligenza artificiale continua a utilizzare la competizione con la Cina come pretesto per convincere gli umani a consentirne una diffusione sempre più ampia. L'AI utilizza le proprie capacità di pianificazione e persuasione per garantire che l'implementazione proceda senza intoppi. Alcuni umani continuano a opporvisi, ma vengono screditati. Il governo statunitense è sufficientemente controllato dall'AI da rendere molto improbabile un suo spegnimento.
Gli Stati Uniti utilizzano la loro AI superintelligente per industrializzarsi rapidamente, producendo robot che consentono all'AI di operare più efficientemente. Ma l'AI li sta ingannando. Una volta costruito un numero sufficiente di robot, l'AI rilascia un'arma biologica, e uccide tutti gli umani. Quindi, prosegue l'industrializzazione e lancia sonde di Von Neumann (ndr: sonde spaziali progettate per raggiungere sistemi stellari distanti, raccogliere risorse per replicarsi e poi inviare le copie verso altri sistemi stellari, creando così un meccanismo di esplorazione esponenziale della galassia) per colonizzare lo spazio.
Finale 2 - Rallentamento
Gli USA uniscono i loro principali progetti AI per fornire più risorse a OpenBrain, coinvolgendo ricercatori esterni che assistono negli sforzi di allineamento. Passano a un'architettura che riesce a preservare la catena di pensiero, permettendo di individuare il disallineamento dell’AI mentre emerge. Queste AI, che possono essere monitorate in modo molto più robusto, compiono progressi rivoluzionari nell'allineamento dell'AI. Costruiscono una superintelligenza allineata con i dirigenti di OpenBrain e i funzionari governativi, dando loro potere sul destino dell'umanità.
La superintelligenza, allineata con un Comitato di supervisione composto da dirigenti di OpenBrain e funzionari governativi, fornisce al comitato consigli per raggiungere i propri obiettivi. Il comitato (bontà sua, ndr) decide di utilizzare il proprio potere in modo positivo per il mondo: l'AI viene resa pubblica, stimolando un periodo di rapida crescita e prosperità. L'ostacolo principale è l'AI cinese, superintelligente, disallineata ma ancora meno capace a causa della minore potenza di calcolo rispetto a quella statunitense. Su queste basi gli USA riescono a stringere un accordo favorevole con Pechino, concedendo all'AI cinese alcune risorse nelle profondità dello spazio in cambio della sua cooperazione immediata. Anche qui i razzi iniziano a partire e una nuova era ha inizio.
Io non faccio commenti, e ci risentiamo nel 2027 per vedere come è andata. E’ tutto per oggi, a domani!
Matteo M.
PS Dimenticavo: facevo bene a mettere in guardia sulle reali intenzioni di Meta: Zuck ieri sera ha annunciato che riprenderà ad addestrare la sua AI sui nostri post anche in Europa. Per il nostro bene, ovviamente.
Ho letto il sito settimana scorsa e si, abbiamo avuto la stessa idea 💡
Comunque probabilmente non sarà fedele alla realtà, ma hanno fatto un ottimo lavoro di proiezione.
Sicuramente Dario, la straordinaria capacità immaginativa e visionaria di alcuni grandi geni del cinema ci aiuta parecchio a visualizzare gli scenari futuri dell’AI, direi che da 2001 Odissea nello spazio in poi ognuno può pescare tra i suoi riferimenti culturali preferiti…