L'AI, ONE YEAR LATER
Sequel dell'intervista con Giacomo Ciarlini, co-founder di Datapizza e saldamente "miglior divulgatore AI su piazza". Se volete continuare a capire che succederà, è imperdibile (anche per il finale).
Hello humans,
più o meno un anno fa qui su [humans/AI] Giacomo Ciarlini ci aveva raccontato cos’è l’AI e come funziona. Avevo scelto lui per questa missione critica perché lo consideravo - e lo considero tuttora - il “miglior divulgatore AI su piazza” (riproduzione riservata). Da quando è uscita, la sua intervista è rimasta la prima cosa che chiunque vede arrivando sulla home della newsletter su Substack. L’ho tenuta lì perché se non sai cos’è l’AI è difficile poi capire il senso di [humans/AI], che ogni settimana vi racconta come una forma di intelligenza aliena ci sta cambiando per sempre dal di dentro. Io sono Matteo Montan e se volete saperne di più su di me e su questa newsletter, trovate tutto nelle Info. Buona lettura.

Giacomo , 30 anni, è cofounder di Datapizza, nome poco ortodosso ma sicuramente memorabile di una delle AI company più smart e interessanti del nostro ecosistema (dall’intervista ad oggi sono passati da 25 a 75 persone, hanno rilasciato il loro primo modello open source e sono diventati un punto di riferimento per molte aziende che vogliono fare bene l’AI). Gli ho chiesto di tornare per fare il punto un anno dopo. E lui ha gentilmente accettato.
Ciao Giacomo, ben ritrovato. Allora un anno fa ci eravamo salutati con le tue previsioni su quello che sarebbe successo in questi 12 mesi, cito: agenti che funzionano, modelli più affidabili, costi dell’AI in costante discesa, AI che crea se stessa… Non male, Giacomo, le hai beccate tutte!
Ehm… fammi pensare, cazzo, sì! Ooops…
Ahahaha! Il francesismo ci sta Giacomo, bravo. Direi che questa combinazione di cose è iniziata a manifestarsi solo nelle ultime settimane: l’avvento di Claude Code che programma da sola per ore, i chatbot trasformati in agenti tuttofare, i nuovi modelli di frontiera fatti dalla stessa AI… l’ho raccontato nella serie di post dedicati al tipping point, al punto di svolta dell’AI, silenzioso ma sempre più evidente. Cosa ne dici, raccontiamo in retrospettiva cosa è successo? Partiamo dalle fondamenta: uno dei temi più discussi di questi mesi è stato se l’architettura Transformer scoperta da Google nel 2017 e alla base di tutta l’AI generativa abbia raggiunto o meno il suo limite, insomma se possa diventare più intelligente di così. Tu come la vedi?
Credo che ormai non sia nemmeno più una cosa discutibile. L’architettura Transformer è sufficiente per fare da layer base per qualsiasi cosa vogliamo costruirci on top. Verrà innovata, migliorata, sicuro, ma sono spuntate anche tante versioni alternative che promettevano “facciamo come il Transformer ma 20 volte più veloce” e poi scoprivi che l’esperimento era stato fatto su 300.000 parametri (un modello di frontiera ne ha oggi tra 200 miliardi e 2 trilioni, ndr). Mamba, modelli ricorsivi, insomma ne abbiamo viste tante. Ma abbiamo raggiunto un livello tale di sofisticazione — penso a GPT 5.2 di OpenAI, a Claude Opus 4.6 di Anthropic— sufficiente per coprire il 95% dei task delle persone white collar. Ovviamente questo è vero in uno scenario ideale: input ben definiti, dati ben definiti, processo definito, outcome definito, metriche di successo chiare. E ovviamente nel mondo reale queste cinque cose tutte insieme non sono quasi mai vere.
Cosa intendi dire?
Che queste cinque cose sono il vero delta fra le capacità del modello e il suo impatto reale. Se ci immaginiamo l’integrale fra due curve — la curva sotto sono le capacità del modello, la curva sopra è l’impatto delle AI (Giacomo mima le curve con gli avambracci) tutto ciò che c’è in mezzo non è tecnologia AI: è dati, integrazione, struttura dell’informazione, knowledge base. E poi tutta la parte people: cultura delle persone, come re-skillarle, come farle diventare manutentori di conoscenza e non operativi che eseguono. Se dovessi definire le sfide dell’impatto dell’AI nei prossimi cinque anni: 1% tecnologia, 49,5% people, 49,5% dati e processi. La tecnologia è già risolta. Potrebbero fermarsi a Opus 4.6 e si potrebbe già ridisegnare un’azienda praticamente tutta AI-native.
Sarà, Giacomo, ma nella pratica quotidiana - e siamo ormai 1 miliardo e mezzo a usare l’AI - ad ogni sessione sbattiamo il muso su un limite che non dico è diventato un argomento da bar, ma quasi: la finestra di contesto. Cos’è esattamente? Perché è così importante?
Mettiamola così: come in un computer c’è l’hard disk e la RAM, allo stesso modo funziona un modello AI. E allo stesso modo funziona un essere umano, con la memoria a breve termine e la memoria a lungo termine. La finestra di contesto è la short-term memory, la RAM. L’altra è la long-term memory, lo storage. Perché è importante? Perché mentre tu mi fai queste domande, io accumulo contesto. Ti rispondo in base alla domanda che mi hai appena fatto, ma anche in base alle cose che ci siamo detti un po’ prima. La mia risposta sarà influenzata da tutto questo, ma non da quello che ho pensato settimana scorsa — o magari sì, un po’, ma in modo via via più latente.
La metafora funziona, ma dimmi: cosa è ‘sta benedetta finestra di contesto?
La finestra di contesto è la massima quantità di informazioni in input che un modello può prendere in pancia prima di erogare una risposta. Queste finestre sono passate da poche migliaia di parole a milioni di parole (il termine tecnico è token, che è l’unità di misura dei modelli, ne avevamo parlato qui) . Ma è come per un essere umano: se gli chiedi qualcosa che fa riferimento alla sua memoria di cinque anni fa, potrebbe essersela dimenticata, o potrebbe essere stata sovrascritta. Non è che basta una finestra di contesto lunghissima, ci metti dentro tutta la knowledge base e bam one shot lui ti risponde. C’è un fenomeno che si chiama context rot, marcimento del contesto: mano a mano che il contesto si allunga, la capacità di rispondere in modo puntuale e sensato diminuisce. È un fenomeno fisico: un modello — che non è altro che un insieme di parametri numerici — riesce a catturare una certa quantità di segnale. Il motivo per cui modelli più grandi sono più intelligenti è anche perché compattano più informazioni. Ma c’è un limite a questo compacting, una sorta di capacity che si degrada esponenzialmente con la lunghezza.
Qui Divulgator mi sa che per spiegare bene serve una altra delle tue immagini…
OK, proviamo questa: se hai appena finito il secondo capitolo del terzo libro di Harry Potter e ti chiedo cosa è successo, tu mi rispondi benissimo. Ma se sono passati sei anni, hai letto tutti e sette i libri e ti chiedo cosa ha detto esattamente Piton al capitolo 5 a pagina 17 — magari ti ricorderai il concetto, potresti simulare una buona approssimazione, ma le parole esatte no. Però se ti riprendo il libro, te lo apro alla pagina giusta e te lo faccio rileggere, mi rispondi alla perfezione. Chiaro? Ed è questo che ci porta al come si risolve il problema: costruire un’architettura che recupera il contesto just in time, on the fly, quello che serve per rispondere alla domanda dell’utente. Questo campo si chiama Context Engineering: il design di un sistema che avvolge il modello AI per facilitarlo nel consumare meno contesto possibile. Sostanzialmente gli prepari la risposta.
Per l’utente medio che usa il chatbot però la frustrazione è concreta: le risposte degradano mano a mano che vai avanti, anche su documenti che gli hai appena dato, una dimensione temporale molto più corta dei sei anni dalla lettura dell’ultimo Harry Potter...
Sì, perché i sistemi che usiamo comunemente non hanno un vero sistema di long-term memory. La short-term memory funziona anche bene — meglio della nostra: se dai a un LLM 100 pagine di un libro, in un secondo se le legge e ti risponde abbastanza bene , tu ci metteresti un sacco di tempo a leggerlo e verbatim non ricorderesti nulla. Il problema è anche la long-term memory. Io per esempio me la sono costruita con Claude Code, mi sono creato un sistema personale. Prima di tutto al termine di ogni sessione mi creo una short-term memory, che è un file Markdown (un formato di testo molto usato dagli sviluppatori che ha l’estensione .md, ndr); questo file ha una struttura standard, tipo data, contenuto, note etc e dentro ci salvo il lavoro fatto (Claude Code accede alle nostre cartelle, ma lo lo vediamo meglio dopo, ndr). Quando accumulo 50 di queste memorie short le sparo in un database SQL che poi fa da long-term memory, e per ogni memoria creo con l’AI dei tag semantici per poi potere recuperare più facilmente le info.
Hai appena descritto qualcosa che l’utente medio non può fare...
Fino a un certo punto. L’ho fatto tutto con Cowork, con tre prompt. Gli ho detto: tu conosci i tuoi limiti, costruiscimi un sistema di short-term e long-term memory. L’unica accortezza è ricordarsi a fine chat di dire “salva nella memoria” e a inizio chat “carica la memoria”. E’ un accrocchio, certo, ma ha fatto tutto lui: database, script, inserimento, lettura, meta-tag. Con tre prompt. Poi io sono un power user, è ovvio, ma basta essere power user — non devi essere un tecnico.
Confermo che per ora quello che hai descritto non è alla portata del lettore tipo di [humans/AI]. Però ormai abbiamo scavallato, quindi prevedo due cose: 1) a breve features di memoria come queste saranno disponibili nei settaggi dei chatbot e 2) il numero dei power user che costruiscono accrocchi per risolvere problemi continuerà ad aumentare. E qui - dopo architettura e memoria - arriviamo al terzo punto chiave della nostra retrospettiva: l’interfaccia. La mia sensazione è che da dicembre ci sia stato un vero scalino, che sia successo quello che si era sempre detto, cioè che i chatbot sarebbero evoluti in agenti: ci conversiamo ancora, ma non per farci dire come fare le cose, per fargliele fare!
Corretto. Le interfacce si sono evolute tantissimo. Tre anni fa ChatGPT era text-in text-out con un modello scarso sotto. Oggi Claude Cowork è — secondo me — un po’ l’endgame dell’interfaccia testuale. È un sistema completamente agentico: c’è un ciclo di esecuzione che fa girare un LLM finché non ha risolto il compito, ruotando l’utilizzo di strumenti di cui sa valutare l’output, capire se sta sbagliando e fare backtracking. Ha molti strumenti built-in — il browser, la creazione di PowerPoint — ma posso creare skill on top dove documento la mia conoscenza, o collegarlo a altre applicazioni. Tutto questo è possibile perché il modello sotto è robusto. Lo stesso prodotto sei mesi fa non funzionava. L’avanzamento del modello ha sbloccato aree di UI/UX che adesso funzionano davvero. L’evoluzione di Cowork è lo standard de facto di quello che andremo a vedere. Tutti andranno lì: agente che insiste sul tuo computer, fine.
Totalmente d’accordo: dopo ChatGPT per me questa è la cosa più epocale successa nell’AI: un assistente che con la tua autorizzazione accede al tuo PC e ha accesso alle skill di un programmatore top che H24 fa le cose che tu gli descrivi. E’ un abilitatore pazzesco, universale, altro che fare meme e video con un prompt.
Yesss, ora con un prompt puoi realizzare vere e proprie applicazioni. Il coding integrato permette a chiunque di costruirsi i propri accrocchi, ma anche ai product manager di iterare in minuti quello che prima iteravano in settimane, avanti e indietro col team di sviluppo (iterare: in gergo il ciclo prova-modifica-riprova con cui si migliora un prodotto versione dopo versione, ndr). Ieri dovevo fare lo scraping di tutti i miei post LinkedIn. Ho fatto lo screenshot del profilo e ho detto a Cowork: fammi uno script che li scorre tutti, scatta screenshot, estrae i dati, li tira giù. One shot. Poi l’ho buttato via perché non mi serviva più. Diventa viabile costruirsi tool usa-e-getta. Un prompt, cinque minuti lui che scrive, ti fai un caffè, torni, ce l’hai, lo lanci, lo butti via. Il software diventa una commodity, e con esso, organizzare il lavoro, trovare anomalie, incrociare dati, memorizzare informazioni.
E questo fatto di lavorare sul tuo PC mitiga il problema della context memory…
Esatto! Se carichi i documenti in un’interfaccia web, che è una black box — non sai come li organizza, come li stora, quando li retriva. Invece con un file system organizzato (cioè l’alberatura dei tuoi file sul pc) , semplicemente gli dici “per questo lavoro mi serve A, B, C”, lui va, naviga e trova. Puoi mettere un file Readme che descrive la struttura e basta. La tua knowledge base diventa il file system. Lo controlli, lo arricchisci, ci metti database, testo, presentazioni. E l’interfaccia ti permette di dare comandi long-running e lasciarli girare, perché il modello è sufficientemente intelligente per non perdersi. Prima al terzo tool scazzava. Ora ne usa 20 di fila senza sbagliare una chiamata.
Tutto questo è reso possibile da MCP, plugin, estensioni che consentono al tuo sistema di collegarsi ad altri sistemi, applicazioni, etc Che sono esattamente?
Sono connettori. Poi dipende come li architetti, ma la cosa importante da dire è che comunque forniscono al modello AI uno strumento tramite un’interfaccia condivisa con un contratto ben definito: input, output, fine. Si collegano a qualsiasi applicazione: dalla roba operativa — mail, calendari — ai database, ad altri sistemi AI. Puoi creare architetture che si collegano fra loro, si fanno handover dei task, se li passano di mano in mano creando catene di montaggio delle AI, anche tra sistemi diversi. Il grande vantaggio è che non devi disegnare tutto in modo olistico prima, puoi attaccare un po’ tipo con lo scotch, a posteriori.
E così ti fai anche le cose importanti, non solo quelle usa e getta…
Infatti. Ti faccio un esempio: a Datapizza io gestisco anche la parte media, content creation e redazione. Cosa ho fatto, sempre con Cowork, per organizzare meglio il lavoro? Ho preso tutto quello che abbiamo prodotto, ho fatto ripulire tutti i dati, li ho messi in un mega JSON ((JavaScript Object Notation: un formato standard per strutturare dati in modo leggibile sia dalle macchine che dagli esseri umani, molto usato nello sviluppo software per organizzare e scambiare informazioni, ndr)) con data, nome, contenuto. Poi gli ho detto: voglio creare una suite interna accessibile per tutti i content creator . Gli ho descritto il flusso di lavoro e gli ho detto: fammi un’interfaccia grafica custom on top a questi dati. Me l’ha disegnata tutta con due prompt. Dati etichettati e categorizzati, editor completo di testo, preview, filtri per tipologia, ricerca keyword, ricerca semantica, un AI assistant e anche un generatore di workflow che i content creator possono usare per produrre e montare i loro contenuti.
Più consentiamo all’AI di lavorare sui nostri file, magari con pezzi di scotch, più la sicurezza diventa un tema reale. Parlo per me: quando uso Claude Code, mi chiede continuamente di autorizzare cose che non ho la minima idea di cosa siano. Si fa un atto di fede: ti ha fatto Anthropic -penso - il tuo CEO Dario Amodei oltre che un genio è tutto sommato una brava persona, OK Claude, vai avanti. Ma se stai usando un player meno affidabile, open source, tipo Moltbot o come si chiama ora OpenClaw? È un rischio pazzesco..
Assolutamente. Ci sono tre livelli di rischio, su problemi che vivono su mondi diversi: rischi locali di esecuzione, rischi di intrusione, data leakage.
Primo livello: l’AI ti rompe le uova in casa. Il modello è sul tuo file system, sbaglia e ti fa una delete, cancella qualcosa. Nessuno ti attacca da fuori, è il modello che ti cancella dati irrecuperabili. Soluzione: fatti sempre i backup. Che non è una soluzione al problema dell’AI, è igiene generale.
Secondo: qualcuno ti entra in casa. Hai creato con OpenClaw un agente che controlla le offerte su Amazon, qualcuno lo becca facendo sniffing e spoofing (tecniche di attacco informatico: la prima intercetta il traffico dati in transito su una rete, la seconda falsifica l’identità di un dispositivo o servizio per ingannare il sistema e ottenere accesso, ndr), identifica una falla di sicurezza, ci entra dentro, prende il controllo, si mette in ascolto, si dirama in altri sistemi, casino. Soluzione: non usare cose buttate su GitHub, non dare le chiavi di casa a tutti. Se sei un coder l’agente te lo blindi, ma se fai l’accrocchio ti esponi.
Terzo livello: le fughe di dati. I miei dati dove finiscono? Di qua, di là, i dati dei miei clienti... Quindi occhio a dove metti i dati, a non dargli accesso.
Arriviamo ad un altro fattore chiave del successo degli agenti: la diffusione delle piattaforme di automazione tipo n8n. Mi sembra che siano un po’ il punto di contatto fra quello che abbiamo descritto finora – assistenti AI evoluti che potenziano la propria produttività - e l’AI applicata all’automazione dei veri processi aziendali, workflow customizzati che interfacciano più sistemi. La vedi anche tu così?
Sì, sicuramente per una PMI, che può usare strumenti come n8n per creare soluzioni che funzionano just enough to do the business traendone comunque benefici mostruosi. Questi strumenti vivono a metà fra gli assistenti di produttività generale e i grandi progetti fatti col codice. L’automazione si preoccupa di risolvere il problema di business, non gli interessa che applicazioni o sistemi gli attacchi, o se usi come codice Python o Java. La regola che ho capito nelle ultime settimane lavorando con i nostri clienti è questa: quando non sai a priori cosa vorrà fare l’utente, la scelta migliore è sempre un tool di produttività generalista già creato da un vendor, tipo Microsoft Copilot o Claude Cowork. Quando invece sai cosa dovrà fare l’utente o gli utenti, perché hai intervistato le persone, capito il flusso, dove ottimizzarlo, i sistemi con cui parlarsi, allora la soluzione migliore è rendere il tutto un workflow attivabile con un bottone, in un’interfaccia custom, dove dietro le quinte gira un flow n8n che orchestra.
La tua quarta profezia un anno fa riguardava proprio le aziende. Avevi detto: inizieranno a investire davvero. Sulla home del vostro sito scorrono ipnoticamente sequenze di marchi di grandi aziende, come è cambiata la loro attitudine?
È cambiata tanto. Siamo passati dal guardare gente che faceva piccoli proof of concept timidamente a investire in grandi progetti trasformativi. Adesso vediamo le prime aziende Enterprise che vogliono ridisegnare da zero intere aree per rifarle AI-native.
È molto complesso. C’è resistenza culturale importante, velocità diversissime in azienda. Spesso l’IT è molto indietro e viene sovraperformato da gente del C-level — magari un po’ tecnica, smanettona — che con Claude Code fa in una mattina quello che secondo l’IT richiedeva sei mesi. Una dinamica molto interessante.
C’è sempre più budget per il training delle persone. Le aziende hanno capito che non è un corso una tantum, ma un percorso continuo. In un paio d’anni le persone dovranno essere costantemente ri-addestrate a usare agenti in modo sempre più sofisticato. Oggi insegniamo ancora Copilot alle aziende, e assorbire quel livello di produttività individuale è già tanta roba. Ma ci sono aziende molto avanti con cui stiamo ridiscutendo tutto. Ci dicono: come devo far girare la mia azienda fra due anni? A Datapizza, voi ve lo state già facendo perché siete nativi di questa roba, aiutate anche noi a capire come farlo.
Previsioni: cosa vedi per i prossimi 12 mesi?
Le interfacce tipo Cowork che insistono sul file system locale saranno the way to go. Tutti si uniformeranno verso quella direzione.
OpenAI avrà difficoltà serie rispetto ad Anthropic, perché ha il problema di dover servire miliardi di utenti non paganti.
Spero che Google sistemi i suoi prodotti, perché i modelli sono della madonna ma i prodotti fanno venire il vomito, come sono impacchettati: metà delle volte Gemini si dimentica degli strumenti che ha, non riesce a leggersi le cose attraverso le interfacce.
Credo che Anthropic uscirà come il big winner del 2026.
Una curiosità: premesso che vivo in simbiosi con Claude, spesso mi chiedo se Anthropic, con tutta ‘sta storia dell’ AI buona e responsabile, ci è o ci fa? Tu che dici?
È una questione di teoria dei giochi. In un mondo in cui esiste una corsa verso l’AI, preferisco che esista un player come Anthropic piuttosto che non esista. Almeno buona parte del mercato si appoggerà su sistemi che tengono la sicurezza come principio importante. Lo scenario ideale ma irrealizzabile sarebbe un solo player che sviluppa un’AI security first.
Magari. Grazie Giacomo e alla prossima.
Matteo Montan
PS - Stando alle ultime notizie da Washington, verrebbe da dire che Anthropic non ci fa. Nelle ore successive alla realizzazione di questa intervista, il Pentagono ha minacciato di rescindere il contratto da 200 milioni di dollari con Anthropic e di classificare Claude “rischio per la catena di fornitura”, formula normalmente riservata a Paesi nemici, e questo perché Amodei si rifiuta di rimuovere due storici paletti dell’accordo: niente sorveglianza di massa sui cittadini americani, niente armi completamente autonome. Le altre AI company, più flessibili, si fregano le mani. To be continued.
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!BwUp!,w_40,h_40,c_fill,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F5a903a45-5696-4fea-93ba-386d103ce0ec_1054x1054.png)
![[humans/AI]](https://substackcdn.com/image/fetch/$s_!MliX!,e_trim:10:white/e_trim:10:transparent/h_72,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F6034ef7a-337e-475f-b232-ba4a9795a961_1600x631.jpeg)
