E dopo Parigi l'ora della catastrofe si avvicina, pare
Il ricordo di Wikipedia, i delusi, i controcorrente e l'orologio del disastro
Hello humans,
io sono Matteo Montan e questo è [humans/ai] Lunch break che anche oggi sarà un po’ anomalo, dovendo registrare le ultime eco dall’AI Action Summit, che dopo avere inondato tg e giornali si è spento ieri sera a Parigi. (Come sempre se volete saperne di più su questa newsletter e su di me date un’occhiata qui.) Cominciamo!
***
Stamattina, in un dormiveglia particolarmente agitato, mi è venuto improvvisamente in mente di andare a vedere cosa avrebbe tramandato ai posteri Wikipedia (ancora la miglior proxy del cervello dell’umanità) riguardo questa intensa due giorni parigina.
Wikipedia e oltre
A quanto pare, quello di Parigi sarà il primo summit ad essere ricordato per chi NON ha firmato lo statement finale: “The Artificial Intelligence (AI) Action Summit was held in Paris, France, from 10 to 11 February 2025. At the summit, the US and UK refused to sign a declaration on inclusive and sustainable AI, which was supported by 60 countries, including France, China, and India”. (E Italia, aggiungo io, poi magari qualcuno maligna che anche a Parigi ci siamo accodati a Trump).
Tra l’altro se è molto chiaro perché non hanno firmato gli USA , lo è un po’ meno per lo UK a guida laburista, il quale - per inciso – ha avuto finora un ruolo non marginale nello sviluppo dell’AI americana ed è da tenere sempre sotto osservazione (qui una bella analisi della London School of Economics su vincitori e vinti di Parigi e su dove sta Londra in tutto questo).
Sembra invece che non sia stato notato da Wikipedia, almeno per ora:
il clima da investment showcase multilaterale (con India e China dalla parte dei partner affidabili, interessante il summit visto da Pechino)
le due grandi promesse fatte ieri dal Vecchio Continente: billion a pioggia sull’AI e relativo taglio dei red tape, due cose su cui tutto il mondo, inclusa [humans/AI], adesso conta.
I delusi
Nonostante la dichiarazione finale sia piena di buoni sentimenti sulla governance globale dell’AI (al netto degli US, che puntano a mantenere la dominance del mercato), come previsto i paladini della AI etica e sicura tornano a casa intristiti.
Uno su tutti, Dario Amodei, papà della responsabile e intelligentissima Claude, che dichiara: occasione persa. Nel suo post dopo Parigi (prima del summit era indicato come top speaker ma quasi nessuno lo ha citato) Dario (si chiamano tutti per nome, avrete notato) ancora una volta mette in guardia il mondo: attenzione ragazzi a non perdere di vista il vero problema, entro il 2026/2027 l'AI raggiungerà capacità paragonabili a quelle di un intero stato popolato da geni, con tutte le sfide politiche che questo comporta, per esempio il controllo militare dell’AI.
Sono i suoi temi, poco di moda ora, e Amodei sicuramente ci crede, ma va anche ricordato che Dario deve difendere il posizionamento unico della sua Anthtropic e il suo futuro (cash burning rate mostruoso e valutazione che prima del tornado Trump&DeepSeek era intorno ai 60 billion). Così come Sam (Altman) che dopo le prime alzate di spalle, a quanto pare dovrà perdere un po’ di tempo a difendere la sua OpenAI dall’attacco di Elon (Musk) che comunque un po’ di fastidi li darà.
I controcorrente
Offuscati dal clamore mainstream billion-driven, a Parigi sono uscite due iniziative interessanti e à rebours:
La prima si chiama Current AI, ed è una partnership che si distingue per il focus specifico sul beneficio sociale piuttosto che sulla corsa alla mitica AGI (Intelligenza Artificiale Generale). Tratti caratteristici:
parte con un finanziamento iniziale di soli 400 milioni di dollari, con l'obiettivo di raccogliere altri 2,5 miliardi, ed è sostenuta da una combinazione di enti pubblici (da Europa e Sud del Mondo) e privati (tra cui Google e Salesforce).
si concentra non su crescita dei data centers ma su aree specifiche dove l'IA può fare la differenza per il pubblico interesse: sanità e obiettivi climatici gli obiettivi primari
Il fondatore ci tiene a precisare che non si tratta di un'iniziativa di policy, ma di finanziamento di progetti allineati agli obiettivi, con focus su modelli più piccoli e specifici e uso di strumenti open source (per trasparenza e sicurezza).
La seconda si chiama ROOST (Robust Open Online Safety Tools) ed è una nuova organizzazione no-profit cofondata da Google, OpenAI, Discord e varie fondazioni filantropiche con l’obiettivo di migliorare la sicurezza per i minori online.
L'iniziativa è molto piccola, ha raccolto 27 milioni di dollari, e mira a sviluppare e rendere accessibili strumenti di sicurezza basati sull'IA per identificare, esaminare e segnalare materiale di abuso sessuale su minori.
Come nota il blog specializzato Platformer, ROOST è un tentativo di rivoluzionare l’attuale approccio alla fiducia e alla sicurezza dell’AI tornando alle origini, allo stesso modo cioè con cui la cybersecurity rivoluzionò se stessa negli anni anni '80 e '90 adottando strumenti open-source
Una preoccupazione ed un approccio guarda caso condiviso anche da un importante gruppo di well-intentioned hackers: anche per loro nell’AI security dovrebbe essere riapplicato il modello della cybersecurity tradizionale, dove vari stakeholder collaborano per monitorare e affrontare sistematicamente problemi simili.
Nel tradizionale condensato di parole delle joint declarations, questo almeno è uno spunto. A domani! (finalmente senza Parigi)
Matteo M.
PS: Per gli amanti delle curiosità catastrofiche, dopo Parigi le lancette dell’Orologio dell’Apocalisse, sono avanzate di 2 minuti verso la mezzanotte, l’ora della fine.
Grazie Anna, detto da una giornalista brava e attenta mi fa molto piacere, a domani allora con il nuovo Lunch Break!
Bella pubblicazione!