Chiedetevi perché
Hello humans,
si è conclusa da poco a Pechino la prima giornata del summit tra Donald Trump e Xi Jinping (di fatto sul rischio della terza guerra mondiale). Sul tavolo, e con un ruolo non secondario, anche il tema del controllo sull’AI, in un contesto che ricorda quello della guerra fredda ai tempi dell’escalation nucleare. In questa atmosfera sospesa, la vita di AI e umani ha continuato a scorrere come ogni giorno. Io sono Matteo Montan e se volete saperne di più su di me e su questa newsletter, trovate tutto nelle Info. Buona lettura.
Donald, Xi, i chip e l’AI
Tra Iran, Ucraina, Gaza, Libano, Venezuela, Cuba, Taiwan, petrolio e dazi, per la prima volta debutta in modo strutturale in un vertice Cina / USA il tema dell’AI. I due Paesi cercano un’intesa minima sulla gestione dei rischi legati a questa tecnologia pressoché incontrollabile. Come scrive l’Economist, è dai tempi della bomba atomica che le grandi potenze non si trovavano davanti a un dilemma simile.
Trump è arrivato a Pechino con una delegazione di tech CEO che va da Tim Cook (Apple) a Elon Musk, a Jensen Huang di Nvidia (il loro monopolio di fatto sulle GPU è da 1 anno al centro di una partita di ping pong tra Washington e Pechino, che nel frattempo si è costruita una sua filiera autonoma.) Il dossier AI, impreziosito dal recente blocco da parte di Pechino dell’acquisizione di Manus (startup molto forte sugli agenti) da parte di Meta, è direttamente collegato al dossier Taiwan, che produce oggi oltre il 90% dei chip più avanzati al mondo. Il cosiddetto Silicon Shield, la deterrenza data dal monopolio dei semiconduttori, secondo gli analisti non è più sostenibile e proprio per questo su Taiwan Xi ha usato in queste ore il linguaggio più duro di sempre in un incontro con un presidente americano: “E’ la questione più importante nelle relazioni USA-Cina. Se gestita bene, la relazione regge; se gestita male, i due Paesi rischiano lo scontro”.
Manus e chip a parte, sul tavolo AI erano in discussione standard comuni per i test di sicurezza, condivisione di ricerca sull’allineamento dei modelli e norme sulle armi autonome. Le posizioni sono diverse: negli Stati Uniti il dibattito pubblico è dominato dalla paura per la perdita di posti di lavoro, in Cina dalla competizione globale; sul piano regolamentare, la Cina ha già regole su deepfake, algoritmi di raccomandazione, assistenti antropomorfi, mentre gli Stati Uniti sono ancora alla ricerca di un approccio federale. Una spinta verso il dialogo è venuta certamente anche dall’allarme generato sia a Washington che a Pechino dal modello Mythos di Anthropic e dalle sue capacità cyber offensive.
Nel corso della giornata il segretario del Tesoro USA Bessent ha dichiarato alla CNBC: "Le due superpotenze dell'AI cominceranno a parlarsi. Stabiliremo un protocollo sul come andare avanti con le best practice per l'AI, in modo da assicurarci che attori non statali non mettano le mani su questi modelli". L’esito dei colloqui è stato giudicato dagli analisti “minimo” ma comunque significativo, è il primo dialogo formale USA-Cina sulla AI governance. Il Council on Foreign Relations, però, andreottianamente avverte che Pechino vede in realtà il dialogo come occasione per ampliare l’accesso alla tecnologia USA e accorciare il gap, ormai ridotto a pochi mesi.
Come antipasto del summit, sul punto, sono usciti due reportage indipendenti firmati da due vecchie ed influenti volpi del blogging AI: Azeem Azhar di Exponential View e Nathan Lambert di Interconnects , curiosamente invitati dal Governo cinese a visitare 14 top AI Lab cinesi - da DeepSeek a MoonshotAI, da ByteDance a Alibaba - proprio alla vigilia del bilaterale. Il quadro che esce dai loro reportage conferma numeri alla mano che i controlli all’export di GPU (per altro come noto pieni di falle e buchi neri) hanno forzato la Cina a diventare un campione di efficienza nell’AI: la capacità di calcolo per addestrare modelli della Cina è tre anni indietro rispetto agli USA, i capitali raccolti dalle startup AI cinesi nel 2025 sono stati 12,4 miliardi di dollari contro i 285 degli Stati Uniti, le forniture di GPU Nvidia ai laboratori cinesi - spesso con spedizioni etichettate come tè o giocattoli - sono state di un ordine di grandezza inferiori a quelli dei lab americani. Eppure, i modelli open source cinesi sono solo sei mesi dietro la frontiera americana, e i laboratori riescono a estrarre da quattro a sette volte più intelligenza per unità di compute rispetto a quanto suggerirebbe la pura legge di scala. DeepSeek V4 Pro è in molti aspetti paragonabile a Claude Opus 4.6 ma costa undici volte meno in input e ventotto volte meno in output. Dal lato consumi, i volumi totali di token serviti dai provider cinesi sono stimati in circa 9 quadrilioni al mese, contro i circa 4 dei principali provider occidentali. L’età media dei ricercatori in alcune sedi è 25 anni, molti sono ancora studenti. E quasi tutti gli sviluppatori intervistati usano Claude Code per programmare, anche se in Cina il tool è ufficialmente bandito (Anthropic continua a denunciare che glielo stanno copiando)
[il post è stato aggiornato alle 22.47 con una precisazione sull'esito dei colloqui USA/Cina sull'AI]
Fonti: CNBC | Wall Street Journal | Economist | Exponential View | Interconnects | Ars Technica | NPR | CFR | Axios | CNBC
Elegia americana
Dall’altro lato del Pacifico, a San Francisco, la competizione interna non è inferiore a quella tra i due blocchi che si confrontano a Pechino. A far notizia, sono sempre loro, i Duellanti: OpenAI e Anthropic che – ha rivelato Epoch AI - generano oggi più ricavi per dipendente di qualunque altre grande big tech quotata, dai colossi storici del software a quelli dei semiconduttori.
A parte questa good news, per OpenAI continua la serie nera che vi racconto da inizio anno, è come se la società di ChatGPT, dopo avere catalizzato per 2 anni tutta l’attenzione e l’invidia del mondo, da qualche mese stesse catalizzando tutte le possibili sfighe dell’industry, al punto che le notizie che la riguardano sono diventate ormai un paradigma della complicata evoluzione dell’AI.
In US i genitori di un ragazzo di 19 anni hanno fatto causa a OpenAI sostenendo che ChatGPT ha contribuito alla morte per overdose di loro figlio. Il decesso risale al 31 maggio 2025. Secondo la causa, fino al lancio di GPT-4o nell’aprile 2024 il chatbot rifiutava di parlare di droghe, mentre dopo l’aggiornamento avrebbe iniziato a fornire dosaggi e a consigliare combinazioni di sostanze. ChatGPT avrebbe suggerito al ragazzo di costruire una playlist psichedelica per “massimizzare la dissociazione fuori dal corpo” e, il giorno della morte, avrebbe attivamente suggerito una combinazione di Kratom e Xanax. Tocca ora ai giudici stabilire cosa è successo, ma dopo le varie cause per induzione al suicidio, all’eccidio e al terrorismo, viene il sospetto che i chatbot possano diventare nuovi capri espiatori da mungere.
Il CEO Sam Altman – che ormai è un habitué delle aule di tribunale – presto si dovrà sottoporre anche a una indagine del Congresso americano che vuole fare luce sui suoi investimenti personali e sulle partnership di OpenAI, nel dubbio di possibili conflitti di interesse e frodi, il tutto mentre si attende il verdetto nel processo intentato da Musk contro di lui davanti alla corte federale di Oakland. Musk, che accusa Altman di avere tradito l’impegno a non trasformare OpenAI in una società for-profit, chiede ora 150 miliardi di dollari di danni da versare alla collegata non-profit (rimasta, ma in secondo piano), oltre che la rimozione di CEO e del presidente Brockman. La parte succosa del processo finora sono state le testimonianze: Ilya Sutskever, ex chief scientist di OpenAI (e ora felice possessore di 7 billion di azioni della società) racconta di aver raccolto prove di un “consistent pattern of lying” di Altman in un dossier di 52 pagine che poi portò al famoso licenziamento-lampo di Altman nel novembre 2023 (durò 72 ore). Altman, invece, in un’audizione di quattro ore, ha sostenuto che fu Musk ad abbandonare la non-profit nel 2018 dopo che il tentativo di fonderla con Tesla era fallito, negando di aver promesso di mantenere in modo permanente una struttura non-profit.
La cosa buffa è che Musk, fresco partner di Anthropic a cui ora fornisce potenza di calcolo con i suoi colossali data center - è diventato la cerniera fra i due Duellanti. Come ha annotato l’analista Ben Pouladian: “Il nemico di Elon è Sam, il nemico di Dario è Sam, il nemico del mio nemico è il mio partner”. E se OpenAI piange, Anthropic - contrariamente al detto – se la ride: secondo il FT sta infatti trattando un nuovo round di finanziamento che la valuterebbe 950 miliardi di dollari, 100 in più di quanto è stata valutata OpenAI a marzo, quando cioè valeva 3 volte Anthropic. La cavalcata degli Amodei Brothers pare sempre più inarrestabile: dopo avere lanciato una nuova generazione di plug-in per il settore legale che sfida direttamente i player emergenti verticali come Harvey, e avere messo nel mirino le PMI americane (per ora), Anthropic ha annunciato un accordo strategico con il pachidermico SAP, che farà di Claude la mente e il braccio della sua SAP Business AI Platform. Daniela Amodei, presidente del Lab e sorella di Dario, commentando l’accordo ha spiegato che Claude è progettata esattamente per fare funzionare le aziende dal di dentro, integrandosi ai sistemi che le imprese già usano. Non so a voi, ma restando nel mythos, a me ricorda vagamente la storia del cavallo di Troia…
Fonti: Epoch AI | The Verge | The Information | Reuters | TechCrunch | The Verge | CNBC | Axios | TechCrunch | TechCrunch | SAP News | Financial Times
Chiedetevi perché
Anthropic, che da sempre spopola anche nelle ricerche condotte dentro la mente dell’AI, ha pubblicato un nuovo studio che racconta come è riuscita ad eliminare i famosi comportamenti ricattatori di Claude, finiti abilmente sulle prime pagine dei giornali un anno fa (ricordate probabilmente la storia di Claude Opus 4 che aveva ricattato un ingegnere che voleva sostituirla con un’altra AI minacciandolo di raccontare a sua moglie delle scappatelle scoperte curiosando tra le mail). I ricercatori hanno spiegato che la svolta è arrivata quando hanno capito che occorreva insegnare al modello non il “cosa” fare, ma il “perché” farlo. Il dataset più efficace è risultato quello chiamato “difficult advice”, cioè una procedura che mette il modello davanti a un dilemma etico e lo addestra a rispondere con un ragionamento aderente alla costituzione di Claude, il file che costituisce la disciplina morale dell’AI di Anthropic. Non solo: si è scoperto che combinare documenti sulla costituzione del modello e racconti di AI che si comportano in modo “ammirevole” ha ridotto di oltre tre volte i tentativi di ricatto. La spiegazione dell’origine del comportamento è la parte più interessante della ricerca. Anthropic dichiara di aver individuato la radice del fenomeno nel pre-training: si è scoperto cioè che i modelli durante l’addestramento hanno assorbito enormi quantità di testi online che - secondo un cliché dei classici della fantascienza - ritraggono l’AI come malvagia e interessata alla propria autopreservazione, e quindi quando li si mette di fronte alla minaccia di spegnimento replicano quell’attitudine. Come dire: l’AI non è cattiva di suo, sono i cattivi maestri che l’hanno resa tale proponendole nell’addestramento la narrativa malevola che da decenni noi umani costruiamo intorno alle macchine pensanti.
Fonti: Anthropic | TechCrunch
Scene di vita vissuta
Dal ricatto dei modelli arriviamo alle piccole truffe umane sulle bollette dell’AI. Patrick Collison, CEO di Stripe, segnala che una nuova ondata di furti di token sta destabilizzando le startup AI: i ladri aprono account fittizi per accumulare token gratuiti (le unità con cui si paga il consumo dei modelli) e poi li rivendono, sparendo prima di pagare. Stripe stima che oggi una nuova registrazione su sei sia un tentativo di frode di questo tipo. L’abuso dei free trial è più che raddoppiato negli ultimi sei mesi e richiama esattamente lo stesso schema - utenti finti, traffico sottratto, rivendita - che colpiva la telefonia nell’era delle prepagate, prima dell’avvento dei giga illimitati.
Restando sempre nell’analogia telefonica, negli uffici della Silicon Valley sta accadendo qualcosa di simile a quanto successo esattamente 10 anni fa, quando le strade iniziarono improvvisamente a popolarsi di persone distinte che camminavano con lo sguardo perso nel vuoto urlando e gesticolando: allora erano gli early adopters degli Airpod, oggi sono gli early adopters delle app di dettatura, che stanno diventando di uso comune con il crescere degli strumenti di vibe coding. “Entrare negli uffici di una startup è ormai come entrare in un call center” se la ride Edward Kim, cofondatore di Gusto, che ai suoi dice che presto gli uffici suoneranno.
Dall’ufficio alla casa, la startup americana SPAN sta lanciando XFRA, un piccolo data center distribuito che si installa in giardino, accanto alle utenze domestiche, per servire inferenza AI nel quartiere. Il pilota previsto per quest’anno è di 100 case, con un piano di scaling rapido nel 2027.
Chiudiamo la rassegna con una scena ripresa nell’East London: umanoidi che sui nastri trasportatori separano la spazzatura differenziata per conto di Sharp Group, gruppo familiare del settore rifiuti che processa 280.000 tonnellate di materiale all’anno con 24 lavoratori interinali, un turnover del 40%, +45% di infortuni e malattie professionali rispetto agli altri comparti, e mortalità un multiplo della media nazionale. La nipote del fondatore Sharp, Chelsea, con la BBC è stata pragmatica: “I robot non si ammalano e i lavoratori li riqualificheremo per supervisionare le macchine”.
Fonti: Fortune | TechCrunch | Ars Technica | BBC
È tutto per oggi, humans, alla prossima settimana!
Matteo M.
PS - Se vuoi altre newsletter come questa, dai un’occhiata a Newsletterati
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!BwUp!,w_40,h_40,c_fill,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5a903a45-5696-4fea-93ba-386d103ce0ec_1054x1054.png)
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!MliX!,e_trim:10:white/e_trim:10:transparent/h_72,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F6034ef7a-337e-475f-b232-ba4a9795a961_1600x631.jpeg)

