Per ora il problema non è l'AI ma come gli umani la usano: 3 casi molto controversi
L'autonomia dell'intelligenza artificiale non è un pericolo imminente, il vero rischio sono certe applicazioni umane: 3 casi che riguardano Meta, il ministero USA della Sanità e il governo inglese
Hello humans,
lo sappiamo, il rischio più seducente dell’AI è che un bel giorno diventi autonoma da noi e decida di fare un cattivo uso di sé stessa. Magari succederà, ma attualmente il pericolo più concreto viene dall’uso che noi umani ne facciamo, in buona o cattiva fede. Oggi vi riporto tre casi controversi, che ognuno è libero di leggere come vuole (spazio ai commenti, sotto, se vi va). Io sono Matteo Montan e questa è [humans/AI] e se volete saperne di più sulla newsletter e su di me trovate tutto nelle Info. E ora, andiamo!
Ex dirigente accusa Meta: sfruttava i momenti di fragilità degli adolescenti per fargli acquistare prodotti
Una ex dirigente di Meta ha scosso milioni di famiglie con rivelazioni inquietanti sulle pratiche pubblicitarie dell'azienda rivolte agli adolescenti. Sarah Wynn-Williams, che ha ricoperto il ruolo di direttrice delle Politiche Pubbliche Globali di Facebook ed è autrice del libro di rivelazioni "Careless People", ha testimoniato davanti a una commissione d'inchiesta del Senato americano che la società avrebbe deliberatamente preso di mira gli adolescenti basandosi sul loro stato emotivo.
Durante l'udienza, convocata per investigare sui rapporti tra Meta e la Cina, Wynn-Williams ha risposto a una domanda specifica ammettendo che Meta negli anni passati in azienda aveva targetizzato ragazzi tra i 13 e i 17 anni con annunci pubblicitari nei momenti in cui si sentivano depressi o più emotivamente vulnerabili. "A Meta potevano identificare quando i ragazzi si sentivano inutili, indifesi o falliti, prendevano queste informazioni e le condividevano con gli inserzionisti," ha dichiarato l'ex dirigente. "Gli inserzionisti sanno molto bene infatti che le persone che non si sentono bene con loro stesse sono più propense ad acquistare qualcosa, e che quello è il momento di proporre loro un prodotto”.
Wynn-Williams ha fornito esempi concreti: se una ragazza adolescente su Instagram cancellava un selfie, questo veniva interpretato come un segnale di insicurezza sul proprio aspetto e diventava un'opportunità per proporre prodotti di bellezza. Analogamente, le adolescenti che mostravano preoccupazioni riguardo alla propria immagine corporea venivano prese di mira con annunci per prodotti dimagranti. Secondo l'ex dirigente, Meta era pienamente consapevole che gli utenti tra i 13 e i 17 anni rappresentavano un segmento demografico vulnerabile ma "molto prezioso" per gli inserzionisti, e questo giustificava tali pratiche agli occhi dell'azienda. Wynn-Williams ha raccontato che molti manager di Facebook non permettevano ai propri figli di utilizzare i prodotti che sviluppavano: "Dicevo, 'Oh, tuo figlio adolescente ha usato il nuovo prodotto che stiamo per lanciare?' E loro rispondevano, 'Ai miei ragazzi non è permesso stare su Instagram."
In risposta alle accuse fatte in Senato, Meta ha rilasciato una dichiarazione in cui nega categoricamente quanto affermato dall'ex dirigente, definendo la sua testimonianza "scollegate dalla realtà e piene di affermazioni false."
L’ex star TV messa a capo dell’Agenzia che cura gli americani annuncia: avanti con i medici avatar, costano 2 dollari a visita invece di 100
Il Dr. Mehmet Oz, star TV recentemente nominato amministratore dei Centers for Medicare and Medicaid Services (CMS) - l'agenzia federale che gestisce l'assistenza sanitaria per quasi metà della popolazione americana - ha scatenato polemiche durante il suo primo incontro con il personale. Secondo quanto riportato da fonti a WIRED, Oz ha dedicato gran parte della sua prima riunione alla promozione dell'uso dell'intelligenza artificiale nell'agenzia e all'elogio dell'iniziativa "Make America Healthy Again" di Robert F. Kennedy Jr. ora ministro della Sanità e noto per le sue posizioni no vax.
Confermato dal Senato il 3 aprile scorso, Oz è stato per anni medico prima di diventare la star del popolare "Dr. Oz Show". Durante la sua carriera ha promosso consigli medici successivamente dimostratisi errati, incluso l'uso di idrossiclorochina come trattamento per il Covid-19. Nel 2014, durante un'udienza al Senato, ha dovuto ammettere che le pillole dimagranti che promuoveva in TV "non poggiavano su rigore scientifico”.
Durante l'incontro, Oz ha proposto di dare priorità agli avatar AI rispetto agli operatori sanitari in prima linea. Ha affermato che mentre una diagnosi di diabete da un medico costerebbe 100 dollari all'ora, un appuntamento con un avatar AI costerebbe appena 2 dollari. Secondo Oz, i pazienti valuterebbero l'assistenza ricevuta dagli avatar AI come uguale o migliore rispetto a quella umana, sebbene molte delle ricerche disponibili secondo Wired suggeriscano il contrario.
Il CMS gestisce Medicare, Medicaid e Healthcare.gov, con un budget annuale di oltre 1,5 trilioni di dollari, impiegando quasi 7.000 dipendenti e fornendo assistenza sanitaria a quasi la metà degli Stati Uniti. In risposta alle notizie trapelate, una portavoce del CMS ha dichiarato "Il Dr. Oz porta decenni di esperienza come medico e innovatore al CMS. Non risponderemo a fughe di notizie deliberatamente fuorvianti su un incontro di quasi un'ora che ha tenuto con tutto il personale CMS."
Il governo inglese crea un algoritmo per prevedere chi ucciderà (ma il problema è il campione considerato)
L'organizzazione attivista Statewatch ha rivelato l’esistenza di un progetto governativo britannico che punta a utilizzare algoritmi per identificare potenziali assassini attraverso l'analisi di dati personali. Il programma – come riportato dal Guardian - analizza informazioni di migliaia di persone presenti nei database della polizia e del servizio di libertà vigilata per individuare chi potrebbe commettere crimini violenti. Secondo Statewatch, il sistema "codificherà pregiudizi verso comunità a basso reddito e già marginalizzate su base etnica o razziale, attraverso l'uso di dati sensibili, amplificando discriminazioni strutturali già presenti nel sistema giudiziario”.
L'iniziativa si aggiunge ad altri controversi sistemi predittivi già sperimentati dalle forze dell'ordine in diversi Paesi, e spesso criticati per i loro risultati discutibili. Il database in questione, peraltro, secondo Statewatch includerebbe non solo persone con precedenti penali, ma anche individui mai condannati, vittime di violenza domestica, e persone che hanno avuto contatti con la polizia per richieste d'aiuto. Particolarmente preoccupante sarebbe l'uso di "categorie speciali" di dati personali relativi a salute mentale, dipendenza, suicidio, vulnerabilità e disabilità.
Il Ministero della Giustizia ha risposto alle accuse spiegando che il progetto "è condotto solo a scopo di ricerca, utilizza dati esistenti sui condannati e non coinvolge persone innocenti: ”L'obiettivo è semplicemente comprendere meglio il rischio che persone in libertà vigilata commettano gravi violenze per migliorare la protezione pubblica”.
E’ tutto per oggi, a domani!
Matteo M.