Intelligence Rising, il wargame a numero chiuso che da 6 anni simula la corsa all'AI
Sviluppato tra Cambridge e Oxford, giocato solo da esperti, disputate solo 43 partite. Uno studio ora rivela cosa succede quando due superpotenze competono senza esclusione di colpi
Hello humans!
Oggi numerone speciale da leggere con calma nel week end. Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Uno studio molto curioso pubblicato recentemente da alcuni ricercatori inglesi, americani e australiani disegna una serie di scenari decisamente inquietanti su ciò che può accadere nel lungo termine quando due superpotenze ed i rispettivi giganti tecnologici decidono di contendersi il primato dell'intelligenza artificiale senza esclusione di colpi.
La curiosità viene dal fatto che lo studio non è basato su enormi masse di dati ma sugli esiti di 43 partite di un gioco da tavolo che si sono cominciate a disputare ben prima che l’AI diventasse la più importante arma globale dopo la bomba atomica, che l’America di Trump e dei tech oligarchs dichiarasse l’obiettivo del dominio globale sull’AI e che la Cina di Xi Jinping scatenasse la sua controffensiva strisciante con DeepSeek e Alibaba.
Il gioco si chiama "Intelligence Rising", ed è un wargame strategico che simula la corsa all'AI tra superpotenze. E’ stato sviluppato nel 2018-2019 da quattro ricercatori: Ross Gruetzemacher (Wichita State University, US), Shahar Avin e James Fox (Cambridge e Oxford, UK) e Alexander K Saeri (Monash University, Australia). Non lo trovate dal cartolaio e non si tratta di un passatempo, ma di uno strumento di previsione utilizzato (giocato) dal gruppo di ricercatori insieme a decisori politici, manager di aziende tecnologiche e analisti di sicurezza per esplorare come potrebbe svilupparsi la competizione globale per l'AI avanzata.
Lo studio sintetizza le lezioni apprese da 43 partite distinte, condotte tra settembre 2020 e luglio 2024. Ogni partita, della durata di diverse ore, ha prodotto dinamiche e risultati indipendenti, rivelando pattern inquietantemente coerenti che emergono quando potenze globali e aziende tech competono per sviluppare AI radicalmente trasformativa.
Il timing è particolarmente rilevante. Con la posizione dell'amministrazione Trump che si preannuncia ostile alla regolamentazione dell'AI e la Cina entrata ufficialmente in partita dopo avere recuperato in mesi un ritardo stimato in anni, le simulazioni di Intelligence Rising offrono una finestra su cosa potrebbe accadere in uno scenario di competizione sfrenata. Da notare che queste partite sono state giocate in un periodo in cui alcuni trend simulati si stavano già manifestando nel mondo reale, ma altri non erano ancora all'orizzonte.
Non solo. Già nelle prime partite del 2020-2021, i ricercatori notarono come la corsa all'AI quasi invariabilmente portasse a rischi di conflitto militare: già allora, per esempio, quando un attore si avvicinava allo sviluppo di un'AI veramente trasformativa, l'avversario rispondeva quasi sempre con azioni militari o cibernetiche per impedire un vantaggio strategico percepito come esistenziale.
IL GIOCO
Come funziona
Intelligence Rising viene giocato da quattro squadre di giocatori che rappresentano il governo USA, il governo cinese, aziende tech americane e aziende tech cinesi. Durante ogni turno, che simula la durata di alcuni mesi, i giocatori prendono decisioni senza conoscere quelle degli avversari, secondo una serie di regole. Ogni team effettua "azioni politiche" aperte (ad esempio, regolamenti, investimenti, alleanze), allocando risorse alla ricerca e sviluppo sull'AI e gestendo risorse come "potere soft", "potere hard", "potere cyber" e "budget".
I giocatori possono anche mantenere segrete alcune azioni, che poi vengono risolte riservatamente dal Facilitatore, una figura attiva del gioco che compie una serie di attività delicate: interpreta e risolve le azioni dei giocatori, determina conseguenze attraverso giudizi in tempo reale, simula le reazioni di attori non rappresentati, introduce eventi esterni per testare le strategie, narra gli eventi creando una storia coerente.
Scopo del gioco
Obiettivi e vittoria variano a seconda del ruolo interpretato:
Per le aziende tech: sviluppare per primi un'AI radicalmente trasformativa che superi il controllo finale di sicurezza
Per i governi: stabilire politiche favorevoli all'AI sicura, accumulare potere e mantenere la stabilità globale
Per tutti: evitare la "perdita collettiva" che si verifica quando l'AI diventa incontrollabile o quando scoppia un conflitto catastrofico
La vittoria può arrivare in vari modi: sviluppando un'AI sicura, accumulando potere sufficiente o impedendo agli avversari di ottenere un vantaggio decisivo.
Chi ha giocato finora e dove
In questi anni, ci sono state 43 partite documentate di Intelligence Rising con giocatori provenienti da Aziende AI, Compagnie assicurative Think tank e ONG, Università, Istituti di formazione, Gruppi accademici e studenteschi.
Le partite si sono svolte principalmente nel Regno Unito (21), ma anche negli USA (7), in Belgio (3), Svezia (2), Francia (1), Singapore (1) e online (8). Attualmente, Intelligence Rising non è disponibile al pubblico come gioco commerciale o piattaforma online. Nel 2024, i diritti e la proprietà intellettuale sono stati trasferiti a un'organizzazione benefica britannica chiamata "Technology Strategy Roleplay", creata specificamente per gestire questo e altri strumenti di simulazione sui futuri dell'AI.
LO STUDIO
Lo studio sintetizza una serie di elementi chiave che si sono potuti osservare in modo ricorrente nelle varie partite.
Trend confermati, previsioni azzeccate
Taiwan come punto critico per i semiconduttori: prima che diventasse un tema palese nel dibattito geopolitico, il gioco aveva identificato Taiwan come nodo cruciale per la produzione di chip necessari all'AI. In circa un terzo delle simulazioni recenti, la Cina intraprendeva azioni militari verso Taiwan specificamente per controllare la produzione di semiconduttori.
La crescente importanza del potere cyber: il gioco ha anticipato come lo spionaggio informatico e l'esfiltrazione di dati diventassero elementi centrali nella competizione per l'AI. Lo studio rileva che "uno degli eventi più comuni in tutte le simulazioni era l'esfiltrazione di pesi dei modelli AI o il furto di segreti algoritmici" - esattamente ciò che osserviamo oggi con crescente preoccupazione tra le aziende AI.
L'allineamento delle aziende tech con i rispettivi governi: le simulazioni hanno ripetutamente mostrato come le aziende tech finissero per allinearsi con i governi dei loro Paesi d'origine, un fenomeno che stiamo effettivamente osservando nel panorama attuale, con le aziende americane e cinesi che operano sempre più come estensioni della sicurezza nazionale.
Gli scenari più preoccupanti
La destabilizzazione causata dalle corse all'AI: la dinamica più costante in tutte le simulazioni è la corsa competitiva all'AI che porta quasi sempre a instabilità globale. Quando un attore si avvicina a ottenere un vantaggio decisivo, l'avversario percepisce una minaccia esistenziale e risponde con azioni aggressive, incluse quelle militari.
L'inefficacia delle politiche reattive: i governi tendono a sviluppare politiche reattive anziché proattive, sempre in ritardo rispetto al rapido progresso tecnologico. Questo ritardo normativo crea vuoti che amplificano i rischi.
L'inganno come strategia dominante: in molte simulazioni, gli attori (specialmente le aziende tech) mostravano un comportamento duplice: pubblicamente sostenevano l'importanza della sicurezza mentre segretamente tagliavano le misure preventive per battere la concorrenza.
L'instabilità politica americana come vulnerabilità strategica: un pattern ricorrente mostrava come i cambi di amministrazione negli USA creavano discontinuità nelle strategie di lungo termine, rendendo gli Stati Uniti più vulnerabili rispetto alla Cina, che manteneva maggiore coerenza strategica.
Le lezioni più importanti
La lezione fondamentale emersa dalle simulazioni è che la competizione incontrollata per l'AI avanzata aumenta drasticamente i rischi esistenziali per tutte le parti coinvolte. Gli esiti più positivi si verificavano solo quando:
Cooperazione precoce: gli attori riconoscevano l'entità della sfida e costruivano fiducia nel tempo
Verifica tecnica robusta: si sviluppavano protocolli di verifica tecnica rigorosi
Accordi di autonomia reciproca: si stabilivano trattati che garantivano l'autonomia di tutte le parti
Le conclusioni dei ricercatori
Gli autori giungono a quattro conclusioni:
La velocità dell'avanzamento tecnologico rende estremamente difficile, anche per gli esperti, sviluppare una visione d'insieme dell’AI.
I risultati positivi richiedono quasi sempre coordinamento tra attori che naturalmente tenderebbero a competere.
Gli attori con risorse adeguate sono rari, ma possono drasticamente aumentare il rischio o migliorare la sicurezza.
Non esiste un percorso tecnologico predeterminato, e le azioni degli attori chiave possono alterare sostanzialmente la traiettoria dello sviluppo.
Oggi a molti di voi queste conclusioni sembreranno la cosa meno interessante di questo articolo, ma se ci pensate spesso lo scopo della ricerca sociale e’ dare un fondamento alle nostre intuizioni. Un limite del gioco (e dello studio) potrebbe essere rappresentato dal fatto di non avere previsto la variabile impazzita del terrorismo, che è quel rischio teorico considerato dagli esperti di AI Safety che si realizza quando l’intelligenza artificiale diventa capace di produrre armi chimiche, biologiche, radiologiche o nucleari (i famosi CBRN risks) e questa capacità in qualche modo arriva nelle mani di agenti non governativi. La simulazione di Intelligence Rising ha comunque il pregio di essere interamente umana, come umana - almeno per ora - è la partita l che si sta giocando tra le due superpotenze.
E’ tutto per oggi, buon week end e a lunedì!
Matteo M.