Miracoli di Trump: l'AI torna a fare paura!
La sicurezza dell'AI era caduta in disgrazia, ma per reazione a Donald ora resuscita: allarme di 2 quasi Nobel, misure simil-nucleari dall'ex capo di Google e 2 bot che parlano senza farsi capire
Hello humans
Sarà la reazione ai brutti modi di Trump e Vance, ma questa settimana sembra proprio che il tema della sicurezza messo ultimamente in soffitta sia tornato al centro del dibattito sull’AI. Ne avevo accennato ieri, con i tentativi di regolamentazione di NY e California, e il Lunch Break di oggi approfondisce la questione pescando un po’ di notizie simpatiche. Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Ieri due attempati pionieri dell’AI hanno ricevuto il Premio Turing, che è un po’ il Nobel dell’informatica. Parliamo di Andrew Barto, ricercatore dell'Università del Massachusetts e Richard Sutton, ex scientist di DeepMind, che a suo tempo avevano inventato il Reinforced Learning (RL, in italiano Apprendimento rinforzato) che è il metodo di machine learning per addestrare i sistemi AI a prendere decisioni ottimizzate attraverso tentativi ed errori, "un cardine del progresso nell'AI che ha portato a modelli rivoluzionari come ChatGPT”. Fin qui tutto OK. I due, intervistati dal Financial Time (lo riporta The Verge) hanno però utilizzato la ribalta del premio per esprimere preoccupazione sulla pericolosa abitudine di dare in mano sempre più frettolosamente i nuovi modelli AI al pubblico: "E’ come costruire un ponte e testarlo facendolo usare alle persone".
Sempre ieri 3 figure di spicco dell'industria tech americana – l'ex CEO di Google Eric Schmidt, il CEO di Scale AI Alexandr Wang e il direttore del Center for AI Safety Dan Hendrycks – hanno pubblicato un documento intitolato Super intelligence strategy che si oppone alla creazione di un "Progetto Manhattan per l'AGI" (la cosiddetta superintelligenza artificiale che a un certo punto sarà più intelligente di tutti gli uomini in tutti i campi). Proprio quando l'amministrazione USA ringhia al mondo di puntare al dominio dell’AI e di privilegiare l’innovazione alla sicurezza, i tre connazionali avvertono che una corsa aggressiva verso il monopolio delle superintelligenze potrebbe provocare ritorsioni dalla Cina, destabilizzando le relazioni internazionali. Il paper introduce il concetto di "Mutual Assured AI Malfunction" (MAIM), secondo cui i governi dovrebbero disabilitare proattivamente progetti di IA minacciosi degli avversari prima che questi vengano armati. Il concetto è mutuato dagli accordi di non proliferazione nucleare della Guerra Fredda, che hanno fatto bene il loro lavoro.
Sempre in tema di sicurezza, messaggi a dir poco schizofrenici (probabile effetto del Trump choc nel mondo delle bigtech) sono giunti questa settimana dai due Labs super rivali: OpenAI, campione della AI competitiva, e Anthropic, paladina dell’AI responsabile (le due si erano scannate sulla Regulation della California mai approvata: la prima contro, la seconda a favore, ovviamente).
OpenAI (presente con Sam Altman all’incoronazione di Trump cui ha donato 1 milione) ha diffuso un post su “safety and alignment" in cui riconosce il potenziale dell'AGI nel trasformare positivamente la vita umana, sottolineando però che è essenziale mitigare i potenziali rischi e collaborare con i policy makers per regolamentare l'uso dell'AI e garantirne un sviluppo responsabile e sotto controllo umano.
Più o meno nelle stesse ore Anthropic (assente con Dario Amodei all’incoronazione di Trump cui NON ha donato 1 milione) come riportato da TechCrunch ha silenziosamente rimosso dalla sezione Trasparenza del proprio sito alcuni impegni che aveva assunto con l'amministrazione Biden per promuovere un'AI sicura e affidabile, tra cui la promessa di continuare a fare ricerca sulle discriminazioni dell'AI (un tema che Donald e soprattutto Elon detestano). Successivamente Anthropic ha scritto una nota piuttosto criptica in cui dice che per evitare ulteriore confusione aggiungerà una sezione nel sito per evidenziare dove “il nostro progresso si allinea." A cosa si allinea a me non è chiaro, mentre mi è piuttosto chiaro che anche Dario - che ha appena chiuso un round a una valutazione di 62 billion- tiene famiglia.
Raccontando il corto circuito in atto sulla sicurezza dell’AI, mi viene molto bene citare a questo punto il video supervirale che tenevo lì da qualche giorno e che mostra due agenti AI di due call center che parlano al telefono e che dopo avere capito di essere entrambi appunto due agenti passano ad un protocollo di comunicazione fatto di bip (avvertenza: non fatelo partire col gatto vicino, il mio è impazzito) che rappresentano dati, incomprensibili agli umani ma molto più veloci ed efficienti del linguaggio naturale. Il progetto, chiamato GibberLink, è stato creato per gioco da due ingegneri di Meta e l'idea che due AI possano comunicare tra loro in un linguaggio inaccessibile agli umani ha generato subito molta ansia e 15 milioni di visualizzazioni. La cosa divertente è che la tecnologia alla base dell’esperimento è la stessa utilizzata dai modem dial-up degli anni '80 che gli anzianotti come me ricordano perfettamente, e anche i più giovani perché quel suono è diventato vintage. (Comunque un filo d’ansia la cosa a me la dà, dai!)
E’ tutto per oggi, a domani!
Matteo. M
PS Se i bip di GibberLink vi inquietano, sentite la voce di Maya e Miles di questa demo e provate a non innamorarvi.