AI sicura? Stai sereno, ci pensa Macron
Hello humans,
io sono Matteo Montan e questo è il #1 di [humans/ai] Se volete saperne di più, trovate qui un po’ di info sulla newsletter e su di me. Cominciamo!
***
Fino all’alba tragica del 27 gennaio 2025, quando il mondo finanziario e tecnologico è crollato di schianto sotto il peso della balenottera azzurra di DeepSeek, la questione Safety dell’Intelligenza artificiale e come governarla era il perno di qualsiasi dibattito sull’AI, tecnologico, geopolitico, sociologico, filosofico, etc. Fin Elon Musk aveva sottoscritto la richiesta di bloccare per 6 mesi lo sviluppo dei modelli, paventando l’estinzione umana. Ma ora che cominciamo a riprenderci dal cazzotto cinese (che curiosamente nessuno aveva visto arrivare nonostante fosse partito prima di Natale, e questo la dice lunga sulle capacità predittive dei grandi analisti), appare piuttosto chiaro che la vera vittima di questa nuova fase di guerra Usa – Cina è proprio lei, la governance dell’AI, e in particolare l’ambito considerato fino a ieri più problematico: la sicurezza, o safety.
La safety è quel campo della ricerca, dello sviluppo e del policy making che da anni si occupa di garantire che i sistemi di AI operino in modo sicuro, allineato agli obiettivi umani, mitigandone i rischi. Le tipologie di minacce previste da ricercatori e esperti di safety sono varie e di varia gravità: dalla violazione del copyright alla manipolazione dell'opinione pubblica (deep fakes, bias dei modelli etc), dagli impatti sul mercato del lavoro a quelli sull'ambiente, fino ai cosiddetti rischi catastrofici, che si materializzano quando la capacità di portare attacchi chimici, biologici, nucleari grazie all’AI finisce nelle mani sbagliate - governi canaglia, terroristi, Spectre – o, peggio, nelle mani della stessa AI nel frattempo diventata superintelligente e autonoma.
Il compito di garantire la sicurezza dell’AI, già molto difficile prima del 27 gennaio nonostante i miliardi di dollari spesi sia dagli AI Lab (nei cosiddetti alignment teams) che dagli stessi Stati (quasi tutti ormai hanno un proprio AI Safety Institute), è diventato ancora più difficile, se non virtualmente impossibile, dopo che sugli scaffali è arrivato DeepSeek, il modello di AI cinese intelligente come i prodotti più avanzati USA, realizzato a bassissimo costo ma soprattutto installabile sul PC di casa e personalizzabile a piacere (questo vuol dire essere open source - nel caso di DeepSeek più precisamente open weight - ed è sottilmente ironico che questo straordinario cavallo di troia tecno-liberista sia arrivato dal più secretivo dei governi mondiali).
Un passo indietro
Fin dall’inizio dell’era dell’AI, il tema della Safety è stato centrale ma anche molto polarizzato. Diversi commentatori hanno sostenuto, probabilmente a ragione, che il timore dei rischi catastrofici che ha dato grande visibilità alla dottrina della AI Safety è stato un classico esempio di profezia che si autoavvera: più si denunciavano i rischi di una superintelligenza artificiale che prima o poi sarebbe arrivata, più la Safety diventava una ottima ragione per mantenere gli AI Labs al centro del palcoscenico, gonfiarne le enormi valorizzazioni (centinaia di miliardi) e intanto rafforzare l’influenza geo-politica americana (l’AI non può finire in mano ai cattivi). Ma è altrettanto vero che, a fianco di questa possibile strategia della tensione, in questi anni ci sono stati e continuano ad esserci preoccupazioni reali sui rischi dell’AI e continui allarmi sulla necessità di avere Safety policies. A lanciarli decine di ricercatori, scienziati, premi Nobel, si presume tutti in buona fede.
I tentativi di regolamentare l’AI
Già prima del 27 gennaio, quando l’AI era un affare privato di pochi Labs impegnati a sviluppare modelli tendenzialmente “chiusi”, la principale arma pensata per governare il sistema - la regolamentazione - era parsa piuttosto inadeguata: l’AI si rivelava materia troppo sfuggente, dinamica, pervasiva, strategica per poter essere normata da regole effettivamente e globalmente applicabili e sanzionabili. In USA, dove la stessa amministrazione Biden ha rinunciato a creare una regolamentazione federale, alcuni Stati se la sono fatta in casa ma senza collegarsi tra loro (quindi sforzo inutile), mentre altri ci hanno provato ma senza mettersi d’accordo, su tutti la California, dove risiedono tutte le big tech. In Cina (dove, come noto, l’app di DeepSeek fa fatica a parlare di Tienanmen) l’agenzia governativa ha prodotto un “AI Safety Governance Framework” che sembra uscito dal libro Cuore, tutto un “trasparenza”, “collaborazione”, “sicurezza” etc etc. L’Europa, invece, l’anno scorso ha varato l’EU AI ACT, un impianto come sempre perfettino, ma che sapete già dove finirà a casa Trump e che in tutto questo pandemonio una settimana fa ha debuttato con le sue prime proibizioni verso i sistemi che comportano rischi definiti “inaccettabili”, tipo quelli che “manipolano le decisioni delle persone” (auguri).
I tentativi di autoregolamentarla
Piuttosto spuntato anche il secondo approccio alla AI Safety testato in questi anni in modo complementare al primo: una sorta di autoregolamentazione degli stessi AI Lab nel programmare i propri modelli, spesso di concerto con gli stessi Safety Institute (US e UK in particolare). Anche qui però è stato tutto piuttosto inutile perché ogni Lab si autoregolava alla propria maniera. E comunque sia, nel momento in cui i modelli più sofisticati sono diventati software aperti, disponibili a tutti, modificabili e riapplicabili, anche questo secondo anello di muraglia a difesa della Safety ha iniziato a scricchiolare.
Non solo AI open, il problema è anche Trump
Le spallate a regolamentazione & autoregolamentazione, però, non sono venute solo da Oriente, dalla giusta democratizzazione dell’AI aperta di DeepSeek che ha cancellato l’illusione di un controllo di pochi (governi, big labs, big tech) sullo sviluppo della più grande innovazione tecnologica del XXI secolo. Sono arrivate anche dallo stesso Occidente, dove Trump insieme ai suoi nuovi tech buddies tra le varie cose ha iniziato a fare a fette anche l’impianto di AI governance costruito negli ultimi due anni: solo l’ultima settimana ha lasciato la capa dello US AI Safety Institute, è saltato il divieto di Google di usare la propria AI per produrre armi e ha cominciato a perdere i primi pezzi Anthropic, la società che con Claude si era imposta in pochi mesi sul mercato come paladina dell’AI sicura e responsabile.
Tutto questo proprio adesso? Non ci voleva
Non è però che grazie ai cinesi e a Trump magicamente sono venuti meno i rischi dell’AI, anzi. Questo doppio cambio di paradigma (AI aperta e disimpegno USA dalla sua governance) avviene proprio nel momento in cui la nuova specie sta evolvendo dalla sua forma primordiale (i bot come ChatGPT che sanno solo chattare) a quella più evoluta degli agent, assistenti virtuali che fanno materialmente le cose al posto nostro. Sono ancora un po’ rozzi, ma tutte le big tech stanno iniziando ad integrarli sempre più nei servizi che tutti noi usiamo ogni giorno (Chrome, strumenti Office, social vari, etc) e dunque nelle nostre identità digitali.
Tranquilli adesso ci pensa Macron (e J.D. Vance)
E’ in questo scenario completamente nuovo e inesplorato che oggi a Parigi inizia un evento che nel mondo dell’AI così come ce la ricordiamo prima dell’avvento di DeepSeek & Trump era molto atteso: la terza edizione di un summit internazionale sull’AI ospitato prima da Corea e poi dallo UK che si chiamava AI Safety Summit e che la Francia ora ha ribattezzato AI Action Summit, spostando l’attenzione dalla sicurezza all’azione, dal rischio all’opportunità.
Il rebranding volante del Summit dice bene di come Macron abbia fiutato per tempo l’aria e abbia cercato di trasformare un evento sulla sicurezza in una piattaforma di ottimismo della volontà attraverso cui la Francia tenta di prendere la guida dell’Europa per trasformarla da noiosa spettatrice & regolatrice dell’AI in attrice chiave di questa epocale trasformazione. Non a caso, ieri, la banca pubblica di investimenti Bpifrance ha annunciato che investirà in AI 10 miliardi di euro, che sono ben 9.8 miliardi in più di quanto investito nel 2024 in Italia, ben 2 miliardi in più di quanto investito sempre nello stesso periodo in tutta Europa, ma solo 2 miliardi in più di quelli che la sola Amazon ha investito nella sola Anthropic dalla fondazione. E in una successiva intervista Macron ha parlato di un investimento complessivo (pubblico-privato) in AI di 109 miliardi.
Pensiamo positivo
Così, mentre la parola Safety esce dal titolo ma anche dalla delegazione più importante del vertice (gli USA tengono a casa i sopravvissuti dell’AI Safety Institute e si giocano il debutto mondiale del vicepresidente J.D. Vance, sicura superstar dell’evento) l’AI summit prende le forme di un grande show geopolitico, che è ormai la dimensione prevalente dell’intelligenza artificiale (qui una bella analisi della Associated Press su cosa attendersi nei prossimi due giorni).
I temi della governance che avevano dominato l’edizione del summit di Londra restano comunque nel programma dell’AI Action Summit di Parigi, anche se ora sono girati in positivo (non si parla più di safety ma di trust, fiducia) e si aggiudicano un paio di sessioni tra le dieci complessive, con speaker di peso. Le prossime idee su come provare a governare l’AI nella nuova era open e trumpiana dovranno dunque venire da Parigi, e speriamo siano buone. In ogni caso, vi terremo aggiornati. A domani!
Matteo. M