FB ripudia l'algoritmo, si torna alla vera amicizia
In attesa dell'IPO che se va male potrebbe far scoppiare la bolla, un po' di chicche tra tech vintage, gesti di cavalleria tra Lab rivali e dubbi legittimi sul futuro del mestiere di attore
Hello humans,
oggi è venerdì, e per l’AI economy non è un venerdì qualsiasi, come leggerete sotto. Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Oggi è un giorno importante per capire se la parola impronunciabile che abbiamo pronunciato nei giorni scorsi era motivata oppure no. Alle 14,30 italiane si quota a Wall Street CoreWeave, azienda di cloud computing specializzata in AI, prima startup a testare l'appetito reale dei mercati finanziari verso l’intelligenza artificiale.
Il prezzo all’IPO sarà di 40 dollari per azione, con un valutazione per CoreWeave di 23 miliardi di dollari. Solo qualche settimana fa però gli analisti avevano ipotizzato un valore di 32 miliardi. La vera prova arriverà tra un’ora circa , quando le azioni di CoreWeave inizieranno a essere scambiate, ma secondo molti media specializzati (The Information, Semafor e molti alti altri) si profila un flop.
La decisione di ridimensionare il prezzo di collocamento di CoreWeave è stato letta da molti come un segnale negativo, perché questo IPO viene considerato un test di readiness delle startup AI ad affrontare i mercati finanziari. L’IPO peraltro avviene in un contesto difficile, con i titoli tecnologici rimasti indietro , su tutti Oracle e Nvidia - i due colossi che gli investitori confrontano con CoreWeave - sotto rispettivamente del 12% e del 19% rispetto all'inizio dell'anno. Come ha scritto Reed Albergotti di Semafor “mentre la Silicon Valley è totalmente concentrata sull'AI, il mercato azionario vede questa tecnologia ancora come un rompicapo". Alle 14,30 il verdetto.
In attesa, di capire se l’IPO di CoreWeave sarà davvero un flop (e se - in caso - sarà l’inizio di un problema per l’AI economy) ecco come ogni venerdì l’abituale carrellata di news della settimana che non sono riuscito a infilare ma che penso sia importante voi leggiate. Le ho accorpate in temi, e ce ne sono un paio freschissime.
Arriva il vintage AI & tech
Ineluttabile, il vintage mantra infiltra anche il tech e l’intelligenza artificiale (ottima notizia per chi insiste a scrivere newsletter, btw). Su questo tema, due chicche che ho trovato online:
“Riportare la Magia degli Amici su Facebook”
Facebook ieri ha annunciato che torna alle origini introducendo la possibilità di mostrare solo i contenuti dei tuoi amici, niente algoritmi e raccomandazioni. Per farlo occorrerà fare tap sulla scheda Amici, che opportunamente aggiornata (per ora solo in US e in Canada) non servirà più soltanto visualizzare le richieste di amicizia ma diventerà il posto dove vedere storie, reels, post, e compleanni dei tuoi amici. “Questo - scrivono a Meta con rinnovato entusiasmo - è il primo di diversi esperimenti che riporteranno la gioia di ciò che abbiamo creato originariamente su Facebook!”. Vuoi vedere che i Millenials - dopo essersi controintuitivamente appassionati ai silent reading - tornano su Facebook?
“Ora puoi scaricare il codice sorgente che ha dato il via al boom dell'IA”
Google e il Computer History Museum giovedì hanno rilasciato il codice sorgente di AlexNet, la rete neurale che nel 2012 rivoluzionò l'intelligenza artificiale. Il modello poteva riconoscere oggetti in 1.000 categorie diverse con una precisione senza precedenti, e segnò un punto di svolta nella storia dell'informatica paragonabile alla Macchina di Turing. Ora disponibile come open source su GitHub, il codice rappresenta la miccia dell'attuale rivoluzione dell'AI e delle sue infinite applicazioni chioaroscure - dalla ricerca medica ai deepfake - che 13 anni fa anche ai suoi creatori doveva sembrare fantascienza. Il codice ora disponibile sarà sicuramente materia di studio per i prossimi storici, se ci saranno 😊
Ultime dalla OpenAI vs. Anthropic AI Rivalry
I due BigLab super rivali sono ingaggiati da molti mesi in una serie di virate e controvirate che ricordano una serrata bolina di America’s Cup.
Questa settimana Claude ha indirettamente battuto Chat GPT sullo spinosissimo terreno del copyright (una questione che secondo la SIAE farà perdere a autori ed editori vari 28 miliardi). Entrambe nei mesi scorsi erano state portate in tribunale con l’accusa di avere dato in pasto ai loro modelli contenuti protetti (news in un caso, canzoni nell’altro) questi gli esiti dei primi verdetti:
Via libera dei giudici: il New York Times potrà sfidare OpenAI in tribunale
Anthropic vince il primo round nella causa con gli editori musicali
Ma la battaglia vera tra i due rivali è soprattutto sul prodotto, e qui - come in tutte le grandi rivalry – per la prima volta si registra un grande gesto di cavalleria:
OpenAI adotta MCP, l’invenzione del rivale Anthropic per connettere l’AI ad altri sistemi
Detto questo, sulla generazione di immagini OpenAI questa settimana ha segnato un goal a porta vuota (qui Claude è alle prime armi, a lei piace più ragionare) integrando in ChatGPT la nuova versione di Sora, il suo sofisticato modello di generazione di immagini e video. I risultati sono stupefacenti (provare per credere), tanto che il CEO Sam Altman ha dovuto dichiarare con falsa modestia:
“Fate troppe richieste, le nostre GPU si stanno sciogliendo! Sorry ma dobbiamo limitare l'accesso”
Teatro vs. AI : chi è il miglior attore?
Un teatro off-Broadway, The Theater Center, ha deciso di puntare sull’AI per attrarre nuovo pubblico allo spettacolo più longevo di New York, Perfect Crime: ora gli spettatori, semplicemente scansionando un QR code, possono accedere ad una piattaforma di traduzioni online, selezionare una delle 60 lingue disponibili, e ascoltare (e capire) in cuffia quello che dicono gli attori in tempo reale.
Il fatto è che nelle stesse ore OpenAI (sempre lei: in effetti la potevo mettere questa notizia sopra, ma dal punto di vista narrativo mi serve qui…) ha lanciato un nuovo modello audio super avanzato che può imitare qualsiasi voce. Presentandolo sul suo blog (lo potete testare qui: è abbastanza mostruoso, come sempre) OpenAI ha scritto: Per la prima volta diventa possibile istruire il modello a parlare in un modo specifico, per esempio gli puoi dire: “Parla come un addetto di customer service particolarmente comprensivo con il cliente”, e lui lo fa. Questo consente di creare una vasta gamma di applicazioni su misura, per esempio per una narrazione super espressiva nello storytelling creativo.
A questo punto penso: indossando la cuffia, chi ci dice se stiamo ascoltando l’attore sul palco o un'AI bene impostata all’Actor Studio?
E’ tutto per oggi e buon week end, a lunedì!
Matteo. M
PS Oggi lo dedico al mio caro amico e lettore Paolo, che l’altro giorno, maledicendo l’ennesima videocall inutile in cui stava per entrare, mi chiedeva su whatsapp se fosse possibile creare un avatar da fare entrare al posto suo. Smanettandoci un po’ direi che sì, è possibile.