Accelerazione brutale: così OpenAI ha compresso 3 anni in 3 giorni
Mentre Altman riduce la sicurezza, ChatGPT diventa social e fa la fusione nucleare. Oggi post radioattivo ma breve, perché vi chiedo 2 mins per il sondaggio con cui potrete migliorare [humans/AI]
Hello humans,
oggi verticale OpenAI, con l’anteprima su un paio di mosse con cui Sam rischia di cambiare di nuovo il corso della storia. E’ un post denso ma breve, che mi consente di chiedervi 2 minuti per rispondere a qualche domanda su [humans/AI] ed aiutarmi con i vostri feedback a migliorare la newsletter. Vai al sondaggio (anonimo, ovviamente) cliccando qui. Io sono Matteo Montan e se volete saperne di più su di me e su questo progetto editoriale, trovate tutto nelle Info. E ora, andiamo!
Il mix assurdo di tecnologia e competizione che sta dietro all’AI ha talmente accelerato i tempi di rilascio dei nuovi prodotti che ciò che in passato succedeva nell’arco di 3 anni ora avviene nell’arco di una settimana. La sequenza di notizie che hanno riguardato OpenAI negli ultimi 3 giorni è il perfetto paradigma della nuova normalità tecnologica.
Lunedì
OpenAI rilascia il suo nuovo modello GPT4.1 (non lo trovate nel menù a tendina di ChatGPT, è solo per sviluppatori e la principale ragione per cui è stato fatto è abbassare i prezzi di utilizzo per tornare competitivi rispetto ai cinesi)
Martedì
Si apprende però che OpenAI per lanciare prima GPT4.1 non ha rilasciato il cosiddetto safety report, una specie di scheda prodotto che è prassi per ogni LAB “allegare” quando lancia un nuovo modello e che descrive i test di sicurezza che sono stati fatti per evitare i soliti rischi connessi all’AI (dalla disinformazione alla capacità di creare bombe nucleari). Detto per inciso, a partire il 2 agosto una mancanza di questo tipo – come mi hanno raccontato fonti all’EU AI Office in un articolo uscito su Il Foglio – per ragioni di sicurezza renderebbe GPT4.1 di fatto non utilizzabile in Europa.
Nelle stesse ore, OpenAI annuncia che per la prima volta dal 2023 aggiornerà il suo Preparedness Framework - il sistema interno utilizzato per valutare la sicurezza dei modelli e definire eventuali correttivi. Dichiara l’azienda: potremmo “rivedere” i requisiti di sicurezza qualora un laboratorio concorrente rilasciasse un sistema ad alto rischio senza protezioni simili. Rivedere vuole dire abbassare, se aveste dei dubbi, l’ho chiesto a ChatGPT.
E’ in questo contesto di evidente strategia ribassista sulla sicurezza, che sempre martedì The Infomation butta lì un rumor su OpenAI che se fosse vero potrebbe cambiare di nuovo il corso della storia. Lo riporto testualmente:
“OpenAI questa settimana lancerà nuovi modelli AI capaci di connettere concetti appartenenti a campi scientifici diversi per suggerire tipologie inedite di esperimenti - dalla fusione nucleare al rilevamento di patogeni. Questa innovazione rappresenta un significativo passo avanti nella capacità dei sistemi AI di generare intuizioni interdisciplinari che potrebbero accelerare drasticamente la ricerca scientifica. L'informazione proviene da tre persone che hanno testato i modelli ma non sono autorizzate a parlarne pubblicamente”.
Per completare il quadro, oggi (scoop di The Verge) si scopre che OpenAI sta creando un suo social network. Con 1 miliardo di utenti attivi, decine di miliardi in banca e un consistente vantaggio temporale sullo sviluppo dell’AI (non dimentichiamo mai che ChatGPT è arrivata molto prima degli altri, e per questo può dedicare molto più tempo a tracciare la nuova frontiera) anche ChatGPT Social, se reale, potrebbe cambiare il corso della storia, come anni fa lo cambio Facebook.
Per me è abbastanza, per oggi… a domani!
Matteo M.
PS A proposito di FB, dopo l’annuncio che Meta addestrerà la sua AI sui nostri post, spopola in Italia il modulo che consente di impedirglielo, ne parla anche il Corriere, che in questo articolo linka il form.
Dì la tua su [Humans/AI] e aiutami a migliorarla!
GPT 4.1 è risultato piuttosto "moscio" sia nei risultati reali che nei benchmark, un parametro importante è il costo e non è stato granchè neanche in questo (confronto con Gemini 2.5 Pro).
Sul discorso Social Network vedremo, questo dimostra che la "qualità" dei modelli LLM vale fino ad un certo punto, la potenza computazionale e I DATI (che novità eh?) saranno probabilmente più importanti.