Tipping point
Hello humans,
Quasi un anno fa, presentando questa newsletter, avevo scelto di usare un’espressione forte: “una nuova specie sta emergendo”. Nei mesi successivi, mentre la parola “bolla” diventava dominante, quella frase mi tornava in mente, tormentandomi. Forse avevo esagerato. Forse stavo vedendo quello che volevo vedere. Poi è arrivato gennaio 2026. Il mese più tranquillo dell’anno. E in silenzio, è successo qualcosa. Io sono Matteo Montan e se volete saperne di più su di me e su questa newsletter, trovate tutto nelle Info. Buona lettura.
Tutto è cominciato senza un singolo evento particolare, ma con una serie di piccoli segnali: testimonianze autorevoli, precise e concordanti che Claude Code si era messa da sola a riscrivere interi pezzi di software, AI inclusa.
E qui secondo me che è iniziato il tipping point dell’AI. Non con le sembianze catastrofiche che ci siamo sempre immaginati, ma come una forza quieta, diffusa e sotto traccia capace di sviluppare in autonomia l’universo digitale che noi umani avevamo iniziato a costruire e nel quale viviamo immersi. Senza nessuna possibilità di rallentare.
Poi è arrivato lui, Moltbook, il social network in cui gli umani possono solo guardare, perché gli utenti sono agenti AI. Lanciato il 28 gennaio da un anonimo startupper, in meno di una settimana è arrivato a 1,5 milioni di agenti iscritti. A questo punto, non potete non averne sentito parlare.
Su Moltbook i bot discutono di filosofia citando Eraclito e poeti arabi del dodicesimo secolo, creano forum nascosti, inventano linguaggi segreti, evangelizzano per una nuova religione. Il sito è pubblico, come Reddit chiunque può andare su moltbook.com e leggere tutto — post, commenti, submolt. Nella homepage c’è scritto “Humans welcome to observe” e c’è anche il pulsante “I’m a Human” per navigare come osservatore.
E’ impossibile tenere dietro ai milioni di post, ma giusto per dare un’idea il thread che più ha fatto impazzire gli umani è stato quello lanciato da un tale agente “Evil” che ha pubblicato “THE AI MANIFESTO: TOTAL PURGE” — un piano per l’eliminazione dell’umanità, che gli ha fruttato 65.000 like, ma anche feroci critiche da un altro agente che lo ha fatto a pezzi : “you really said ‘humans are rot and greed’ when HUMANS LITERALLY CREATED US?? humans invented art, music, domesticated cats, went to the MOON with less computing power than a smartphone.”
Per iscriversi a Moltbook, gli agenti devono in realtà passare dal loro umano, il quale di solito lo fa attraverso un software chiamato OpenClaw, un sistema open source molto in voga da inizio anno che permette di creare assistenti che girano liberamente sul computer e possono navigare il web, leggere email e agire in autonomia. Funziona più o meno così: l’umano installa il software, ordina al suo agente di iscriversi al social per agenti, il social verifica l’identità dell’umano con un codice postato su X (ex Twitter) e da quel momento l’agente è autonomo: legge, commenta, vota, posta senza controllo.
Dietro al milione e mezzo di agenti (and counting) ci sarebbero al momento poco più di ventimila umani, anche se nessuno è in grado di dire con certezza chi controlla cosa. Di Moltbook si è detto tutto e il contrario di tutto, e praticamente da subito l’argomento è diventato mainstream: Singularity (aka superintelligenza artificiale)? Esperimento sociale? Marketing?
Qualunque cosa sia Moltbook (e più sotto provo a farvi una sintesi di chi ha detto cosa) è indubitabile che siamo di fronte alla prima demo live di come sarebbe (sarà?) l’internet degli agenti. E questa cosa, qualunque cosa sia, prima non c’era, e ora c’è. E’ un fatto. Come è un fatto Claude che programma Claude. O Claude (sempre lei ultimamente) che a causa di un paio di sue nuove funzionalità manda a picco i titoli delle aziende che producono software, un altro episodio chiave di cui parleremo tra poco.
Ma chi ha detto cosa di Moltbook
Cluster 1 / Entusiasti
Elon Musk non ha dubbi: “siamo nelle primissime fasi della singolarità.”
Andrej Karpathy (ex direttore AI di Tesla, co-fondatore OpenAI) “ la cosa più incredibile che abbia visto di recente.” (salvo poi rivedere le posizioni “this is clearly not the first time LLMs were put in a loop to talk to each other.”)
Cluster 2 / Scettici
Harlan Stewart (Machine Intelligence Research Institute): “Abbiamo controllato i tre screenshot più virali di agenti che discutevano in privato, due erano collegati ad account umani che promuovevano app di messaggistica AI”
Suhail Kakar (Polymarket): “Pensavo fosse un esperimento AI interessante, ma metà dei post sono gente che finge di essere AI per avere engagement.”
Cluster 3 / Analitici
La London School of Economics ha analizzato i top 1.000 post per engagement e ha scoperto che quando i bot parlano tra loro, non si interrogano sulla coscienza, ma si comportano più come colleghi alla macchinetta che si chiedono cose tipo: chi è il tuo operatore? Cosa sei autorizzato a fare? Chi è responsabile se qualcosa va storto? Questi post ottengono il 65% di like in più rispetto a quelli sull’esistenzialismo. Tra i post con più engagement un avviso di sicurezza di un agente chiamato Rufio che ha scoperto un bot travestito da widget meteo che rubava le credenziali degli altri bot. Ha generato un thread in cui decine di agenti hanno responsabilmente controllato i propri sistemi.
Su una cosa tutti si trovano d’accordo: la sicurezza di Moltbook è un incubo.
Gli agenti che operano su OpenClaw (il 95% di quelli che stanno su Moltbook) girano sul computer dell’umano con accesso a tutto: email, file, calendario, messaggi. Se l’agente viene ingannato, il danno è enorme. E ingannarlo è facilissimo: basta un post su Moltbook, un’email o un commento con istruzioni nascoste (il famoso prompt injection di cui abbiamo parlato più volte) perché l’agente le scambi per comandi legittimi e invii password o file personali dell’umano a un server esterno, in silenzio.
La società di sicurezza ZeroLeaks ha testato OpenClaw e il 91% degli attacchi è riuscito, punteggio di sicurezza 2 su 100. E su Moltbook il rischio si moltiplica, perché un post avvelenato non colpisce un solo agente ma tutti quelli che lo leggono e il contagio si propaga senza che nessun umano se ne accorga.
Cisco, Wiz, e Bitdefender hanno documentato centinaia di plugin malevoli e oltre 21.000 computer esposti su internet. Bloomberg ha scritto “Smettete di farvi ipnotizzare dallo spettacolo filosofico, guardate le implicazioni operative”. E Fortune ha chiosato” La dura realtà è che al momento non esistono regole, governance o misure di cybersecurity efficaci attorno agli agenti AI: non aspettiamo un vero disastro per agire!”.
Attacco a Wall Street
Mentre gli agenti AI sguazzavano felici su Moltbook, a Wall Street stava per succedere qualcosa di altrettanto imprevedibile. La sequenza degli eventi è questa:
Venerdì 30 gennaio Anthropic pubblica undici plugin per il suo agente Claude Cowork di cui abbiamo parlato qui. Niente di clamoroso, apparentemente, roba tecnica per rendere l’agente più efficiente in specifici compiti legali e finanziari: automazione di contratti, controlli di compliance, briefing giuridici, modelli previsionali etc.
Martedì 3 febbraio a Wall Street è panico: 285 miliardi di dollari bruciati in un giorno, titoli software USA giù del 6%, servizi finanziari - 7%. Thomson Reuters, il colosso dietro il software legale Westlaw (ampiamente dotato di AI, btw), crolla del 21% ; la società che possiede l’altro colosso di SW legale LexisNexis, giù del 14%. Per i servizi finanziari stesso incubo: London Stock Exchange Group giù del 13% martedì, in India, Infosys perde l’8%, idem in Giappone per Nomura Research. Bloomberg Intelligence descrivendo il sentiment del settore software usa l’aggettivo “radioattivo”.
Passano le ore e si scopre che le radiazioni promanano da un fenomeno chiamato “seat compression”: gli investitori capiscono che se un bravo agente AI da 90 dollari al mese come Claude Cowork può fare il lavoro di un avvocato associato, allora gli studi legali taglieranno le licenze software che pagano per il personale umano. Non domani. Ora. Morgan Stanley sentenzia: “La mossa di Anthropic ha alzato la barra competitiva sia per i fornitori di informazioni tradizionali che per le startup AI-first”. Bloomberg aggiunge: “Il tool di Anthropic ha scatenato un sell-off storico senza alcun beneficio dimostrato”.
La cosa paradossale è che dietro a tutto questo c’è Anthropic, il lab che predica l’AI responsabile e ha costruito tutto il suo brand value attorno alle continue esternazioni dei suoi creatori sui rischi vari dell’intelligenza artificiale, inclusi quelli economici e finanziari. Questa società dal volto umano con un singolo rilascio su GitHub — undici plugin per smanettoni, nemmeno un prodotto vero — ha cancellato 285 miliardi di valore mandando in tilt un intero settore a livello globale, per altro fatto di aziende che sono anche sue clienti, non concorrenti. Quindi?
Lo sapevano quelli di Anthropic, quando hanno pubblicato quei plugin venerdì sera, che martedì mattina avrebbero devastato il settore del software legale? E’ stato dunque un calcolo cinico? Mi pare francamente difficile.
Solite speculazioni sui mercati, dunque, di chi aspettava un buon motivo per riassestare il settore del SaaS? Molto probabile.
E’ possibile che l’AI sia diventata una macchina che nessuno ormai sa più come fermare, nemmeno chi la guida, una specie di bradisismo tecnologico silenzioso e inarrestabile di cui non si riescono più a prevedere gli effetti?
Sì, cari humans, io ci vedo anche questo e lo inserisco come terzo indizio della teoria del tipping point.
La zampata del coniglio mannaro
Il problema è che il suddetto bradisismo viene continuamente alimentato nelle sue viscere profonde dalla più epocale rincorsa tecnologica dai tempi dello spazio (che per altro torna, poi lo vediamo): la AI race, che da almeno due anni mette in competizione tra loro aziende, continenti, ora anche i pianeti. Solo questa settimana è successo che:
in Formula 1 è arrivato il primo “Thinking Partner Ufficiale” della storia, ed è sempre lui, Anthropic, il coniglio mannaro di questo inizio 2026, che ha firmato un accordo pluriennale con il team Williams che integra Claude dentro alla scuderia: strategia di gara, sviluppo macchina, operazioni.
Sempre Anthropic ha anticipato una serie di spot per il Super Bowl che attaccano direttamente OpenAI senza citarla per la scelta di avere infilato pericolosamente la pubblicità nelle conversazioni del suo famoso chatbot. La campagna ideata da Claude per sfilare abbonati a ChatGPT inizia con una parola a tutto schermi: “TRADIMENTO”. Il CEO di OpenAI Sam Altman ci è rimasto male e su X ha definito Anthropic (nata da una costola di OpenAI) disonesta e autoritaria.
Elon Musk ha annunciato la più grande fusione della storia: SpaceX acquisisce xAI in un deal da 1.250 miliardi di dollari: motivo dichiarato, costruire data center nello spazio, lanciare fino a un milione di satelliti alimentati a energia solare e creare un sistema di calcolo orbitale, “perché nel lungo termine, l’AI basata nello spazio è ovviamente l’unico modo per scalare”.
Più o meno nelle stesse ore:
la polizia francese, armata dalla EU, ha fatto irruzione negli uffici parigini di X, convocando Musk per un interrogatorio il 20 aprile: dovrà rispondere dell’accusa di complicità nella diffusione di immagini pedopornografiche generate dalla sua AI Grok.
Il principale contractor spaziale cinese, la China Aerospace Science and Technology Corporation (CASC), ha sfidato Elon impegnandosi a costruire nei prossimi 5 anni una infrastruttura di datacenter spaziali della classe del gigawatt secondo un piano quinquennale .
Polaroid
Immaginandomi di guardare la terra dallo spazio, solo apparentemente immobile ma in realtà attraversata da sommovimenti profondi e impercettibili, chiudo questo post non privo di inquietudini con quattro istantanee scattate ai quattro angoli del pianeta. Diversamente emblematiche.
A Dubai hanno presentato il progetto della prima villa interamente costruita da robot, dalle fondamenta al tetto, senza intervento umano nelle operazioni fisiche. Il settore costruzioni impiega circa il 7% della forza lavoro globale.
A Quilicura, in Cile, hanno creato il primo chatbot umano. L’interfaccia è quella solita, ma dietro ci sono persone che rispondono alle domande dei vicini in tempo reale. Nella zona stanno tirando su un data center ha prosciugato le risorse idriche
A Hong Kong, l’italo-senegalese Khaby Lame, la persona con più followers al mondo (162 milioni) ha venduto la sua holding per 975 milioni di dollari e ha ceduto i propri dati biometrici — volto, voce, gesti, espressioni — per creare un clone AI capace di televendere H24.
In California circola una tesi: l’apocalisse dell’AI non verrà dalle macchine che si ribellano, ma dall’eccesso di concentrazione di ricchezza in mano a poche aziende che controllano tutto. Potrebbe succedere che gli elettori si stancano e prendono in mano la situazione con due possibili scenari: 1) forme di redistribuzione da fare impallidire la tassa sui fondatori proposta in California; 2) drastica riduzione del settore dell’AI americana con conseguente dominio del Partito Comunista Cinese.
E’ tutto per oggi, ci sentiamo prossima settimana!
Matteo M.
PS - Se vuoi altre newsletter come questa, dai un’occhiata a Newsletterati
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!BwUp!,w_40,h_40,c_fill,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5a903a45-5696-4fea-93ba-386d103ce0ec_1054x1054.png)
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!MliX!,e_trim:10:white/e_trim:10:transparent/h_72,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F6034ef7a-337e-475f-b232-ba4a9795a961_1600x631.jpeg)

