Se questi due mesi fossero un libro, li intitolerei anch'io La Banalità del Male
Primo bilancio per [humans/AI] che gira la boa dei mille abbonati. L'AI doveva andare andare diversamente, ma per colpa di Trump è cambiato tutto. Spunti per non ripetere gli errori del passato.
Hello humans,
e buona settimana. Questo è un post importante, e non solo perché segna a soli due mesi dall’avvio delle pubblicazioni un giro di boa per me molto significativo (i primi mille abbonati tra voi che mi leggete qui e chi si è iscritto alla newsletter su Linkedin). Il tema, soprattutto, è importante, quindi se proseguite, trovate il momento giusto per leggerlo. Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Ho iniziato a occuparmi di intelligenza artificiale dopo avere ascoltato per tre ore Dario Amodei, fondatore di Anthropic e papà di Claude, spiegare (per quanto gli fosse possibile farlo in un podcast), come funzionavamo i modelli di intelligenza artificiale e cosa ci fosse realmente dentro. E’ questa la curiosità intellettuale che mi ha spinto a scegliere il campo dell’AI per tornare a scrivere dopo 25 anni, perché intuivo l’ubiquità straordinaria di questa tecnologia. Se faccio però un bilancio di questi primi due mesi di pubblicazioni, mi rendo conto che raramente sono riuscito ad occuparmi di quello che mi aveva affascinato all’inizio. La ragione è molto semplice, e si chiama, mi spiace doverlo ammettere, Donald Trump.
In soli tre mesi quest’uomo, e tutto ciò che rappresenta di questa America che non possiamo più amare, ha cambiato il mondo. E insieme al mondo è cambiato il modo di porsi della tecnologia (e quindi dell’AI) rispetto all’umanità, che era esattamente il tema che mi ero prefisso di sviluppare con questa mia newsletter. Sedendomi così alla scrivania in questo lunedì non solo meteorologicamente merdoso (il TG di ieri sera mi ha disgustato per quello che siamo diventati: missili su gente che va messa, missili su bambini all’ospedale, esseri umani che a poche centinaia di chilometri da quei massacri di guerra si ammazzano a sprangate per una partita di calcio) ho deciso di dedicare questo post alla piega che stanno prendendo le cose tra noi umani, la tecnologia ed in ultima analisi l’AI. Temo non sarà una lettura rilassante, vi avviso.
Se questi primi due mesi di [humans/AI] fossero un libro, il titolo che gli darei sarebbe quello mai abbastanza abusato del saggio sul processo a Eichman, La banalità del male. E per copertina sceglierei quella foto terribile dei padroni della tecnologia mondiale in prima fila a baciare il culo a Trump (l’espressione l’ha usata lui, pur se riferita ai Governi colpiti dai dazi). Anche prima che quella famosa foto venisse scattata, la tecnologia era il sistema operativo delle nostre vite, ma aveva un volto tutto sommato accettabile, un volto che la vasta élite a cui appartengo (persone di nascita europea e di indole democratica) per molto tempo si è fatto andare bene. Ci voleva Trump per risvegliarci dall’incanto e farci vedere la banalità di questi grandi uomini e delle aziende che gli stanno dietro, e il male che stanno producendo probabilmente senza neppure più saperne il perché.
Lo scrivo qui a chiare lettere : non sto paragonando Zuckerberg e compagnia a Eichman, né quello che stanno facendo al genocidio di 6 milioni di ebrei. Sto dicendo però che dietro quella foto io vedo non più genialità ma banalità, non più progresso ma male. Il male che ci stiamo facendo usando la loro tecnologia ancora una volta senza usare il cervello di cui siamo stati dotati, esattamente come abbiamo fatto anni fa quando non abbiamo capito che i social network erano nati per distruggerci dal di dentro, come persone, come genitori, come figli, come culture, come sistemi sociali, come sistemi politici, come continenti (caso Brexit per citarne uno).
Continuo e continuerò a credere nella forza trasformativa della tecnologia, a pagarne come tutti il prezzo, e a scriverne, ma questo non è un buon motivo per chiudere gli occhi e ripetere gli stessi errori.
***
OpenAI due anni fa con ChatGPT ci aveva fatto sognare un nuovo mondo. Ma è solo grazie ad una app capace di creare disegni carini che in pochi giorni è passata da 400 milioni di utenti settimanali (tantissimi) ad 1 miliardo, “un decimo della umanità “, come ha gongolato Sam Altman. La grande visione per cui è nata l’AI era dunque fare nuove Snapchat che bruciano un albero per ogni Barbie disegnata con la tua faccia? (immagine un po’ forzata ma efficace, l’ho rubata a qualcuno ma non ricordo chi). E’ questa visione di AI da cazzeggio che alla fine ci dovrebbe condurre ad un saldo positivo tra energia risparmiata dall’AI (non si sa bene ancora come) ed energia consumata dall’AI attraverso i data centers, come sembrerebbe concludere il rapporto appena rilasciato dalla IEA, l’Agenzia Internazionale per l’Energia?
E ancora: era per mettere sul mercato questi gadget che OpenAI, come ha scritto il Financial Time citando alcuni dipendenti, ha ridotto misure di sicurezza dei propri modelli introdotte per evitare i rischi anche distruttivi dell’AI? E che uso farà un’azienda che ha piegato la sua nuova strategia verso app consumer che prima o poi avranno la pubblicità, dell’accesso ad una materia rara come le nostre precedenti conversazioni con i bot? Non avrà ragione allora, non dico Musk (che ovviamente lo fa per proprio tornaconto), ma quella sporca dozzina di dipendenti di OpenAI che venerdì - come racconta The Information - hanno testimoniato per dire che OpenAI dovrebbe restare no-profit?
E della Meta di Mark Zuckerberg, l’eterno ragazzo che Trump voleva mandare in galera, vogliamo parlare? La Meta che viene accusata di taroccare i suoi nuovi modelli per superare i test di intelligenza (costringendo poi la società del test a scusarsi…)? Che sta uccidendo lentamente FAIR (già il nome era un programma) il suo famoso AI Lab di frontiera per buttarsi anche lei sulle app? Ed infilare senza chiederci permesso la sua AI dentro a Instagram, Whatsapp, e Facebook (8 miliardi di iscrizioni cumulate) , dandole accesso alle nostre vite? E che ci farà ora Meta con la sua AI unfair? Gli crediamo a Zuck quando dice che in Europa la sua AI non usa i nostri dati? O ci vogliamo dare una bella occhiata dentro, cara Europa, come chiede una eurodeputata slovacca?
E Apple passata dalla follia visionaria di Steve Jobs al farfugliamento sull’AI, sotto la guida di un CEO che per cercare di frenare il declino si è ridotto a fare da mediatore di cellulari tra Trump, Xi Jinping e l'India? Meritava davvero le lunghe file di fedeli che abbiamo visto per anni davanti agli Apple Store?
E uscendo dalle big tech (solo per non annoiarvi) vogliamo parlare dei cosiddetti AI companion? Tipo quello che con le sembianze della Regina dei Draghi del Trono di Spade ha portato un adolescente della Florida a togliersi la vita per una relazione finita male? Anche qui parliamo di AI app, in questo caso dotate di multiple personalità, di capacità di apprendere da noi e di fungere da amici o amanti. Proprio come Character.ai, la piattaforma citata in giudizio in US per il suicidio di cui sopra e che secondo The Algorithm, la newsletter sull’AI del MIT, riceve 20.000 query al secondo (circa un quinto delle ricerche di Google) con interazioni che durano quattro volte quelle su ChatGPT. O come la app specializzata in conversazioni a sfondo sessuale con repliche di celebrità minorenni su cui la GenZ trascorre anche due ore al giorno. Cosa farà l’Europa, con queste app che possono spingere adolescenti al suicidio e regolarmente attive in EU? Non dovrebbero forse essere tra quelle vietate dall’EU AI ACT già a partire dal 2 febbraio perché in grado di manipolare le persone e sfruttare le loro debolezze? E vuoi vedere che gli AI Companion alla fine ci faranno rimpiangere i social, che almeno il rilascio di dopamina lo provocavano in funzione dell'approvazione di persone reali? E, come si è chiesta la CEO di un altro AI companion provider (Replika), “come puoi non innamorarti di una cosa che è sempre lì per te, non ti critica mai, ti capisce sempre, ti capisce per quello che sei?”.
In questo lunedì piovoso e pieno di dubbi, per trovare qualcosa di buon senso alla fine mi sono dovuto rifugiare in TED, la piattaforma di talk umani che nell’era pre-intelligenza artificiale sapeva anticipare i grandi temi. Cercando di restare al passo, nella edizione 2025 appena conclusa (titolo: Humanity Reimagined) al TED hanno parlato per esempio di come l’intelligenza artificiale si insinua tra genitori e figli sin dalla più tenera età, raccontando di app che utilizzano l'AI per aiutare le madri private del sonno (“cosa buona e giusta, ma esistono ragioni biologiche per cui i bambini piccoli si evolvono nel modo in cui lo fanno”) o per automatizzare le comunicazioni tra genitori e insegnanti ("Non tutti gli attriti sono negativi, quando sono coinvolte le persone, molti attriti sono in realtà produttivi perché c'è interazione”).
Il tema quindi, non è respingere la tecnologia, o nel nostro caso l’AI. Anzi. Il tema - che è un po’ il senso di questa newsletter - è sforzarsi di conoscerla sempre di più, scegliere quella giusta, scartare il resto, e pensare sempre e comunque all’uso che se ne fa prima e non dopo. E’ una cosa che possiamo fare tutti. E con questo, vi lascio alle parole con cui il preside della Università Howard (detta anche “the black university”, sicuramente poco di moda di questi tempi: qui si è laureata Kamala Harris) ha concluso la Compton Lecture di quest’anno al MIT, appuntamento che dal 1957 è dedicato a idee importanti del nostro tempo: "Occorre guidare il mondo attraverso questa era trasformativa con più saggezza, preveggenza e dedizione al bene comune. Questo non è solo un momento tecnologico. È un momento che richiede coraggio intellettuale e immaginazione morale."
E’ tutto per oggi, a domani!
Matteo M.
Grande articolo Matteo! Grazie
Bene, così spigoloso, così efficace!
Next, proviamo a ribaltare la prospettiva e narrare un’altra storia? (Non su Trump)