Paolo Attivissimo's Blog, page 18
October 12, 2023
ANTEPRIMA Podcast RSI - Vaccinarsi contro le fake news: il “prebunking”

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso www.rsi.ch/ildisinformatico/.
---
[CLIP: Audio di uno degli attacchi di Hamas]
Il recente attacco di Hamas in Israele ha scatenato una nuova ondata di disinformazione sui social network, tanto che l’Unione Europea ha inviato una lettera di monito a X, il social nework un tempo noto come Twitter, avvisando che la sua mancata rimozione delle fake news su questo terribile tema rischia di essere in violazione delle leggi europee. Ma tutti i social network sono da sempre bacino fertile per le informazioni false e pubblicare le smentite sembra essere inutile.
Due università britanniche, però, propongono un’altra soluzione: la cosiddetta teoria dell’inoculazione. Una sorta di “vaccinazione” contro le fake news, un’azione preventiva che permetterebbe alle persone di diventare più resistenti alla disinformazione in generale e di respingerla, come avviene con le malattie. Il procedimento che descrivono è semplice e indolore, e si può eseguire in tanti modi, anche attraverso giochi online e persino tramite un podcast come questo.
Benvenuti alla puntata del 13 ottobre 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
X e i social non fanno abbastanza contro le fake newsPochi giorni fa Thierry Breton, Commissario per il mercato interno dell’Unione Europea, ha inviato una lettera aperta a Elon Musk, avvisandolo che il suo social network, noto per anni come Twitter e ora chiamato X, viene usato per diffondere disinformazione e contenuti illegali, violenti e terroristici dopo l’attacco di Hamas a Israele e che nonostante le segnalazioni fatte anche dalle autorità X non ha rimosso prontamente questi contenuti, come è invece richiesto dalle leggi europee e in particolare dal Digital Services Act, entrato in vigore a novembre scorso. Una inadempienza continuata potrebbe portare a sanzioni economiche considerevoli contro X e anche alla sospensione del servizio in Europa (BBC).
Questo monito fa il paio con un recente rapporto dell’Unione Europea che indica che la disinformazione è più prevalente su X che sugli altri social network (Ars Technica).
Questa piaga, insomma, continua a diffondersi e le azioni prese fin qui non sembrano essere state efficaci nel contrastarla. Le notizie false viaggiano velocissime, ma le loro smentite non riescono a fare altrettanto: il cosiddetto debunking, ossia la spiegazione pubblica e documentata delle bugie diffuse dalle fake news, pare poco efficace.
Per citare Jonathan Swift, le falsità volano, mentre la verità le rincorre zoppicando (“Falsehood flies, and the Truth comes limping after it”, in The Examiner, 1710). Se vi ricordavate questa citazione in una forma differente, qualcosa del tipo “una bugia fa mezzo giro del mondo nel tempo che ci mette la verità a infilarsi le scarpe”, e ve la ricordate attribuita a Mark Twain, confermate involontariamente questo fenomeno, perché Twain non ha mai detto nulla del genere, come hanno scoperto gli esperti di Quote Investigator, ma la falsa attribuzione continua a girare nonostante la smentita sia pubblicamente disponibile da tempo.
Un recente lavoro delle università britanniche di Cambridge e Bristol propone invece un approccio preventivo, che consiste nel dare alle persone gli strumenti per riconoscere facilmente i sintomi tipici dei tentativi di disinformazione e quindi, in un certo senso, dare loro gli “anticorpi” digitali necessari per contrastare la malattia della disinformazione. I ricercatori etichettano questo approccio con un nome molto formale, ossia teoria dell’inoculazione, attingendo proprio al lessico medico delle vaccinazioni, ma a volte usano anche un termine più conciso, ossia prebunking: in pratica, un debunking preventivo.
Il lavoro di queste università è disponibile presso il sito Inoculation.science, e sulla rivista Science Advances è stato pubblicato nel 2022 un articolo scientifico (Psychological inoculation improves resilience against misinformation on social media) che spiega come funziona il prebunking e dimostra che è efficace. Vediamo insieme quali sono i suoi ingredienti e come metterli in pratica.
Il vaccino anti-fake newsLa teoria dell’inoculazione psicologica, per citarla con il suo nome completo, non è una novità: viene già studiata da una sessantina d’anni e si basa su due componenti fondamentali. Il primo è un preavviso emotivo, che dice che sta per arrivare un attacco a un’idea alla quale crediamo e ci mette in guardia; il secondo è una microdose indebolita di disinformazione, che contiene già una smentita preventiva.
Per esempio, si può diffondere un preavviso emotivo che segnali che ci sono persone che cercheranno di convincerci che la Terra è piatta e poi si possono spiegare le prove della rotondità della Terra e indicare quali sono gli errori di ragionamento dei terrapiattisti.
Il limite di questo approccio è che la smentita è specifica, un po’ come i vaccini biologici. Questo tipo di inoculazione rende quindi più resistenti a una singola tesi alternativa. Ma ogni giorno nascono e si diffondono nuove tesi di complotto, e servirebbe un numero infinito di inoculazioni psicologiche mirate.
Così, i ricercatori propongono oggi una nuova versione di questo metodo: invece di tentare di smontare preventivamente ogni singola teoria di complotto o diceria falsa, suggeriscono di concentrarsi sul riconoscimento delle tecniche di manipolazione e sulle strategie retoriche usate abitualmente dalla disinformazione di ogni genere. Questo permette di usare una singola “vaccinazione” generalista che vale per tutte le situazioni, offrendo una resistenza ad ampio spettro alle notizie false.
Per mettere alla prova questo approccio, i ricercatori hanno creato dei brevi video che presentano cinque tecniche di manipolazione che si incontrano spesso nella disinformazione.
La prima tecnica è il linguaggio emotivo. Le ricerche mostrano che l’uso di parole emotivamente cariche aumenta il potenziale di diffusione di un messaggio, specialmente se queste parole evocano sentimenti negativi come la paura, il disprezzo o l’indignazione. Per esempio, il titolo “Aumenta la disoccupazione giovanile” è una descrizione neutra di un fatto e lascia relativamente indifferenti. Ma “Giovani sempre più angosciati e senza lavoro” ha un impatto emotivo molto più forte.
La seconda tecnica è l’incoerenza, cioè l’uso di due o più argomentazioni che non possono essere tutte vere e si contraddicono. Per esempio, i terrapiattisti sostengono che gli scienziati nascondono la verità sulla forma della Terra, ma poi citano quegli stessi scienziati quando dicono qualcosa che sembra sostenere la teoria della Terra piatta. La maggior parte della gente non nota queste incoerenze se non viene abituata a cercarle.
La terza tecnica di manipolazione usata dalla disinformazione e descritta dai ricercatori è la falsa dicotomia o falso dilemma, che consiste nel presentare due alternative come se fossero le uniche possibili e nascondere il fatto che in realtà quelle alternative non si escludono a vicenda e che ci sono anche altre soluzioni. In uno dei loro video, i ricercatori citano come esempio Star Wars e in particolare Anakin Skywalker e il suo celebre “Se non sei con me, sei il mio nemico!”, rivolto al suo mentore e maestro Obi-Wan Kenobi [CLIP: Anakin vs Obi-Wan, da La vendetta dei Sith]. È una falsa dicotomia, perché non essere d’accordo non vuol dire per forza essere nemici; si può anche criticare una persona alla quale si vuole bene. E infatti Obi-Wan risponde perfettamente: “Soltanto un Sith vive di assoluti”.
Al quarto posto delle tecniche adoperate dai seminatori di fake news c’è l’indicazione del capro espiatorio: dare la colpa di un problema comune a qualcuno, o a un gruppo di persone, che non c’entra nulla. I ricercatori citano South Park - Il Film, in cui i genitori indignati decidono che i comportamenti antisociali dei loro figli sono colpa del Canada [CLIP: brano della canzone Blame Canada tratta dal film], ma la storia e la cronaca sono piene, purtroppo, di esempi tragici di questo genere.
Quinta, ma non ultima, è la tecnica dell’attacco ad hominem, ossia prendere di mira la persona che propone un’argomentazione invece di discutere la validità o meno di quello che dice. È un metodo classico, che serve per sviare l’attenzione dal vero tema e dirigerla contro un individuo. È vero che la credibilità di chi propone un messaggio a volte può essere pertinente, come nell’esempio, proposto dai ricercatori, di un fabbricante di sigarette che dovesse presentare uno studio che sostiene che il fumo non fa male, ma di solito gli attacchi ad hominem si concentrano su qualche caratteristica della persona che non c’entra nulla con l’argomento, magari un attributo fisico o la sua nazionalità.
Oltre ai video, i ricercatori hanno anche realizzato dei giochi online che simulano le attività sui social network e insegnano ai giocatori a riconoscere queste tecniche di manipolazione. L’obiettivo, insomma, è allenare le persone a notare i sintomi tipici dei tentativi di influenzarle. La speranza è che se questi sintomi vengono notati, verranno neutralizzati.
Sembra un’idea interessante, ma funziona davvero?
Risultati del prebunkingI ricercatori hanno messo alla prova la propria teoria in due modi: hanno presentato a gruppi di soggetti questi video di inoculazione, che mettevano in guardia contro queste tecniche di manipolazione, oppure dei video neutri, e poi hanno proposto a questi soggetti degli esempi di post nello stile di Twitter/X e Facebook. Alcuni di questi post usavano le tecniche segnalate; altri no. Un esperimento analogo è stato realizzato anche su YouTube, con una campagna pubblicitaria ad ampio raggio che ha raggiunto oltre cinque milioni di persone.
I dati di entrambi i test indicano che chi è stato inoculato contro le tecniche di disinformazione migliora la propria capacità di riconoscere le situazioni che usano queste tecniche, diventa più abile nel distinguere i contenuti affidabili da quelli inattendibili e tende a condividere meno contenuti ingannevoli rispetto a chi non ha ricevuto questa inoculazione.
Nell’esperimento fatto su YouTube, quindi in condizioni meno da laboratorio e più vicine alla realtà dei social network, il riconoscimento delle tecniche è aumentato in media del 5%; non è tantissimo, ma i ricercatori notano che il costo di una campagna di inoculazione contro le fake news fatta in questo modo è modestissimo (circa 5 centesimi per ogni visualizzazione del video), per cui sembra che valga la pena di fare l’investimento, soprattutto se si riesce a convincere i social network a sostenere almeno in parte i costi di una campagna socialmente utile.
Il prebunking fatto sui sintomi generici della disinformazione, invece di affrontare le singole teorie, ha anche un altro vantaggio importante oltre al suo ampio spettro di efficacia: evita di prendere di petto una visione del mondo emotivamente radicata e di creare una situazione di rifiuto e chiusura.
Soprattutto nelle tesi complottiste, infatti, la credenza non si basa solo sulle informazioni false, ma si fonda anche sulle emozioni legate a quelle informazioni e al senso di appartenenza a un gruppo che condivide quella credenza e quelle emozioni. Chiunque abbia un amico o un familiare rapito dalle tesi di cospirazione si riconosce esattamente in questa descrizione. Cercare di smontare una situazione del genere correggendo solo le informazioni sbagliate non funziona, perché la correzione diretta viene vista come un attacco frontale al proprio sistema di valori e quindi viene respinta in blocco. Un prebunking indiretto, nel quale ci si limita a far notare certe incongruenze di contorno, ha più possibilità di fare lentamente breccia.
Dato che è molto difficile sradicare credenze basate sulla disinformazione, la ricerca si sta insomma orientando verso metodi che aiutino le persone a resistere alla disinformazione in partenza, preventivamente, e questo approccio di inoculazione, ispirato dalla medicina e mirato a far crescere nelle persone gli “anticorpi mentali” generalisti che permettano di riconoscere e neutralizzare i tentativi di manipolazione emotiva più diffusi, sembra una strada promettente contro le teorie complottiste e le forme di disinformazione presenti e future.
Resta ancora da capire quali siano i canali e i messaggeri più efficaci per la comunicazione di questi anticorpi, quanto duri l’effetto dell’inoculazione e se ci sia un effetto anche su chi è già stato colpito dal virus della disinformazione. Ma questo approccio sicuramente costa poco, la prima dose l’avete già ricevuta tramite questo podcast, e l’unico effetto collaterale è un’opinione pubblica che si fa manipolare meno facilmente. Tutto sommato, sembra un rischio accettabile.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.October 7, 2023
Marcello Foa dà una lezione di giornalismo. Ma alla rovescia

Marcello Foa (“Giornalista, docente universitario, ex presidente della RAI”) diffonde l’accusa (falsa) che un collega, David Puente, non sia iscritto all’Ordine dei Giornalisti e quindi sia un vicedirettore abusivo. Un’accusa non da poco. Ma Foa tralascia di fare la cosa più semplice: chiedere al collega in questione.
Se un giornalista non riesce neppure a trovare l’iscrizione di un collega all’Ordine dei Giornalisti, forse il giornalista ha un problema di metodo.
Sarebbe infatti bastato andare sul sito dell’Ordine della Lombardia e digitare il cognome del collega (Puente Anzil).
Se un giornalista sceglie di rilanciare accuse prima di averle verificate, pur avendo un modo semplicissimo per farlo, forse non ha solo un problema di metodo: ha un problema di fondo. E questa è una lezione di giornalismo molto importante.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.Aperte le iscrizioni a Sci-Fi Universe, due giorni di fantascienza, astronomia e astrofisica a Peschiera del Garda il 13-14 gennaio 2024: programma e primi ospiti

Come preannunciato a metà settembre, il 13 e 14 gennaio 2024 a Peschiera del Garda si terrà la prima edizione di Sci-Fi Universe (per gli amici SciallaCon): due giorni di convention dedicati a scienza e fantascienza e all’incontro fra appassionati, ai quali parteciperò come co-organizzatore, presentatore e relatore insieme a molti ospiti, che ora posso cominciare ad annunciare pubblicamente; altri ospiti (e altri gruppi) verranno resi noti nei prossimi giorni.
Prima di tutto, sono aperte le iscrizioni (30 euro base; 15 euro per persone da 12 a 17 anni e portatori di handicap; gratuito per bambini sotto i 12 anni e per gli accompagnatori di portatori di handicap; dettagli nelle FAQ): il modulo di iscrizione è disponibile qui. I posti disponibili non sono illimitati, per cui consiglio di iscriversi subito.
Ricordo che le iscrizioni sono separate dalle prenotazioni alberghiere, per consentire la massima libertà di scelta e flessibilità ai partecipanti. L’evento si terrà al Parc Hotel.
Gli ospiti annunciati finora (oltre al sottoscritto) sono i seguenti:
Dan Starkey (Strax di Doctor Who)
Brillante intrattenitore e persona molto disponibile con i fan, è un attore inglese classe ’77, conosciuto soprattutto per le numerose apparizioni nella serie sci-fi della BBC Doctor Who, dove ha interpretato diversi Sontaran, tra cui il noto Strax della Paternoster gang.
Vi aspetta con due panel aperti a tutti gli iscritti (uno sabato e l’altro domenica), sarà a disposizione per autografi e selfie durante due sessioni e avrete la possibilità di incontrarlo di persona durante l’esclusivo Meet&Greet, che sarà solo su prenotazione e a numero chiuso.
Gabriella Cordone Lisiero
Da sempre appassionata di fantascienza, traduttrice e sceneggiatrice di fumetti, tra cui Legs Weaver e Nathan Never. È anche narratrice e redattrice di riviste e, con il marito Alberto, ha contribuito alla diffusione della fantascienza in Italia in anni in cui i mezzi a disposizione non erano proprio all’avanguardia.
Attivamente impegnata nel mondo del fantastico, dedica buona parte del suo tempo allo Star Trek Italian Club “Alberto Lisiero”. L’associazione, nata semplicemente per far conoscere e mettere in contatto tra loro gli appassionati di Star Trek, è oggi uno dei più longevi fanclub italiani ispirati ad una serie sci-fi.
Con lei inizieremo gli interventi sabato mattina, dopo l’apertura della convention: quattro chiacchiere su come gli aspetti umano e sociale su cui si fonda lo STIC-AL abbiano influito e contribuito alla sua longevità.
Simone Jovenitti
Nato a Milano e da sempre appassionato di musica e alpinismo, Simone ha deciso poi di dedicare i propri studi all’astrofisica. Dopo la laurea magistrale in fisica, ha iniziato a lavorare sul lensing gravitazionale e sulla polarizzazione del fondo cosmico a microonde.
Conseguito poi il dottorato in astrofisica sulla calibrazione di puntamento dei telescopi ASTRI, per lo studio da terra dei raggi cosmici, attualmente è ricercatore post-doc presso l’Istituto Nazionale di Astrofisica. È presidente dell’associazione PhysicalPub per la comunicazione scientifica, con cui coltiva e trasmette la passione per le stelle tramite numerosi corsi, eventi e conferenze.
THE WOW SIDE OF THE MOON – La scienza della Luna e della sua esplorazione è il titolo della sua conferenza, che si terrà sabato 13 gennaio alle ore 16.
Oltre agli ospiti, saranno presenti anche club di fantascienza italiani storici, come lo Star Trek Italian Club Alberto Lisiero e la Italian KlinZha Society (in aggiunta allo Stargate Fanclub Italia, che organizza la SFU); sono inoltre previsti dei workshop a numero chiuso e delle esperienze in realtà virtuale:
Workshop di scrittura creativa con Ida Daneri Workshop sul costuming con GEA Lab Workshop di doppiaggio con Luca Gatta della Scuola di Doppiaggio Brescia Realtà virtuale (spade laser e Stazione Spaziale)Per gli appassionati di Dungeons and Dragons ci sarà una D&D Night. Tempo permettendo, ci sarà anche una serata di osservazione astronomica con Physical Pub. E ci sarà tanta musica (a tema e non solo), con occasioni di divertimento e ballo molto speciali.
I costumi legati alla fantascienza sono incoraggiati per tutta la durata della Sci-Fi Universe. Sì, sarò in costume anch’io: astenersi impressionabili.
Il programma è a vostra disposizione qui.
Se volete restare aggiornati, seguite la SFU sui social network: Facebook, X/Twitter, YouTube, Instagram, WhatsApp e TikTok.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.Mi racconto un po’ alla radio: “Perfetti sconosciuti”, condotto da Rosy Nervi, ospiti Francesco Grassi e Maurizio Modica

Abbiamo parlato anche dell’imminente CICAPFest 2023, che si terrà a Padova dal 13 al 15 ottobre e del quale sarò ospite con vari appuntamenti.
Se volete, l’audio è ascoltabile e scaricabile qui.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.October 5, 2023
Podcast RSI - Google fonde le uova, MrBeast sotto attacco e altri inciampi dell'intelligenza artificiale

ALLERTA SPOILER: Questo è il testo di accompagnamento al podcast Il Disinformatico della Radiotelevisione Svizzera che uscirà questo venerdì presso www.rsi.ch/ildisinformatico/.
---
[CLIP: spezzone del finto spot di MrBeast]
Lots of people are getting this deepfake scam ad of me… are social media platforms ready to handle the rise of AI deepfakes? This is a serious problem pic.twitter.com/llkhxswQSw
— MrBeast (@MrBeast) October 3, 2023
L’intelligenza artificiale produce risultati notevolissimi nella generazione e nel riconoscimento di immagini, nell’analisi di dati e testi e nell’elaborazione di suoni, come nel caso delle voci sintetiche che sentirete qua e là in questo podcast, ma non sempre le cose vanno così lisce come viene raccontato da tanti annunci commerciali pieni di entusiasmo in questo settore.
La voce che avete appena sentito, per esempio, sembra quella di MrBeast, lo YouTuber più seguito del mondo, ma è in realtà un falso che gli sta causando parecchi guai. Intanto macOS fa pasticci attivando automaticamente una funzione che fa comparire fuochi d’artificio e palloncini festosi anche nel mezzo di riunioni video serissime; gli esperti dimostrano che una delle difese più gettonate contro le immagini false online è sostanzialmente inutile; e l’intelligenza artificiale fa dire a Google che le uova si possono fondere e altre sciocchezze che è meglio conoscere e capire per non farsi ingannare.
Benvenuti alla puntata del 6 ottobre 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e in questo caso agli inciampi che l’intelligenza artificiale subisce quando non viene supervisionata adeguatamente e quando chi la usa ne è così innamorato che non pensa alle sue conseguenze. Io sono Paolo Attivissimo.
[SIGLA di apertura]
macOS e i palloncini a sorpresa“Sono un terapeuta e quindi è poco professionale che mi compaiano all’improvviso dei palloncini mentre il mio cliente sta parlando di un suo trauma”. Scrive così, in un forum di assistenza tecnica di Zoom, una delle vittime dell’ultimo aggiornamento di macOS, denominato Sonoma, che ha introdotto le cosiddette Reazioni automatiche: in pratica, se fate alcuni gesti specifici con le mani davanti alla telecamera di un Mac recente durante una videoconferenza o una videochiamata, quei gesti faranno partire automaticamente delle animazioni sovrapposte alla vostra immagine e inserite anche dietro di voi grazie all’intelligenza artificiale.
I palloncini di cui si lamenta il terapeuta, per esempio, compaiono se si fa il gesto di vittoria o di pace, con l’indice e il medio che formano una V e il palmo rivolto verso l’osservatore.
Tutti i gesti sono elencati in una pagina apposita del sito di Apple, ma il problema è che Apple ha deciso che era una buona idea attivare automaticamente questa nuova funzione a tutti gli utenti, senza avvisarli, per cui molte persone si sono trovate in imbarazzo, durante riunioni, consulti medici o altre videochiamate piuttosto delicate, quando sono comparsi a sorpresa palloncini, coriandoli, fuochi d’artificio, raggi laser, cuoricini e altre frivolezze facilmente fuori luogo, generate dal riconoscimento automatico delle immagini di macOS Sonoma.
Oltretutto questi malcapitati utenti non sono riusciti a capire cosa avesse prodotto questi effetti speciali indesiderati, perché non si sono resi conto che stavano gesticolando e che a un certo punto le loro mani avevano assunto una delle posizioni riconosciute automaticamente da macOS. Anzi, non sapevano nemmeno che Apple avesse attivato questa funzione.
Per evitare gaffe, come quella che è successa a me, fortunatamente in una videoriunione informale, bisogna cliccare in macOS sull’icona verde a forma di telecamera che compare sulla barra menu quando un’applicazione sta appunto usando la telecamera, e poi cliccare sul pulsante verde Reazioni in modo che diventi grigio.
Sembra insomma che Apple si sia innamorata così tanto di questa nuova funzione da dimenticarsi una delle regole principali del software: quando si introduce una novità importante, bisogna avvisare gli utenti e soprattutto renderla opt-in, ossia lasciarla disattivata e proporla agli utenti anziché imporla a sorpresa.
Tom Hanks e MrBeast travolti dai deepfakeMrBeast, lo YouTuber più seguito del pianeta, con 189 milioni di iscritti, è famoso per i suoi video sempre più costosi, spettacolari e assurdi in cui regala auto o altri beni a sorpresa oppure offre premi molto ingenti. Qualcuno ha deciso di approfittare della sua fama creando uno spot pubblicitario su TikTok in cui MrBeast, in voce e in video, diceva di offrire un iPhone 15 Pro a 10.000 spettatori in cambio di due dollari.
[CLIP: falso spot di MrBeast]
Ma si trattava di un deepfake talmente ben fatto che ha superato i controlli di TikTok ed è stato pubblicato, rimanendo online per alcune ore. Il paradosso è che questo deepfake è stato realizzato usando l’intelligenza artificiale per simulare la voce e il volto di MrBeast e anche TikTok usa l’intelligenza artificiale, insieme a dei moderatori umani, per vagliare le pubblicità. In altre parole, l’intelligenza artificiale dell’inserzionista disonesto ha battuto quella di TikTok. Il fatto che MrBeast pubblichi davvero video in cui fa regali costosi ha reso plausibile l’offerta dello spot fraudolento, e i controllori umani non si sono fermati a verificare la cosa più elementare, ossia la fonte dello spot, che non era legata affatto a MrBeast.
Anche il notissimo attore Tom Hanks è stato vittima di un deepfake pubblicitario fraudolento che promuoveva su Internet un’assicurazione dentistica usando la sua voce e il suo volto. Le due celebrità hanno usato i propri canali social per mettere in guardia gli utenti, ma è chiaro, come scrive anche MrBeast, che “questo è un problema serio” e che c’è da chiedersi se le piattaforme social siano “pronte a gestire la crescente diffusione dei deepfake” ingannevoli, adottando controlli più efficaci, o se hanno intenzione invece di continuare a scaricare sugli utenti i danni della loro disinvoltura e tenersi i profitti che ne derivano. Sembra infatti davvero strano che queste aziende così ipertecnologiche non siano capaci di fare una cosa così semplice come verificare le credenziali dei loro inserzionisti.
Visualizza questo post su InstagramUn post condiviso da Tom Hanks (@tomhanks)
Fonti: TechCrunch, Gizmodo, Ars Technica.
Il watermarking, “filigrana” contro i falsi dell’IA, non funzionaUna delle soluzioni proposte più spesso per arginare il fenomeno delle immagini sintetiche indistinguibili da quelle reali è il cosiddetto watermarking: l’inserimento obbligatorio di indicatori visibili o comunque rilevabili tramite software in tutte le immagini generate dall’intelligenza artificiale.
Molte aziende del settore, come Meta, Amazon, Google e OpenAI, hanno sottoscritto impegni a usare varie tecnologie, incluso in particolare il watermarking, per contrastare la disinformazione. L’idea di fondo è che le immagini sintetiche vengano riconosciute e contrassegnate come false in tempo reale, man mano che vengono generate o pubblicate.
Per esempio, un’immagine sintetica inviata a Instagram per la pubblicazione verrebbe riconosciuta e modificata dal social network per inserirvi un indicatore, una sorta di filigrana digitale che verrebbe rilevata dall’app di Instagram presente sui dispositivi degli utenti. L’app potrebbe così avvisare gli utenti che stanno guardando un’immagine non reale. A fine agosto scorso, Google ha presentato SynthID, un software che promette di fare proprio questo lavoro di identificazione e marcatura.
Ma gli esperti hanno già trovato il modo di rimuovere facilmente questi indicatori, usando paradossalmente proprio l’intelligenza artificiale. Una delle loro tecniche consiste nell’aggiungere all’immagine del cosiddetto rumore digitale casuale per distruggere il watermark e poi nel ricostruire l’immagine usando metodi ben noti nel settore per eliminare il rumore aggiunto in precedenza. Nei loro test sono riusciti a rimuovere con successo uno dei watermark più robusti, RivaGAN, in oltre il 90% delle immagini.
Un altro metodo ancora più insidioso è lo spoofing, in cui un aggressore inietta in un’immagine reale un indicatore che la contrassegna come sintetica, creando confusione e danno reputazionale a chi ha realizzato o diffuso l’immagine: in pratica, fa credere al pubblico che un’immagine vera sia in realtà falsa e che chi l’ha pubblicata sia un bugiardo.
La conclusione degli addetti ai lavori, insomma, è che nonostante le promesse dei grandi nomi commerciali di Internet il watermarking è inaffidabile e rischia di creare più confusione che benefici, rendendo inutile anche questo tentativo di meccanizzare la fiducia, che sembra essere un tema ricorrente di questo periodo in informatica. Forse la fiducia va conquistata usando approcci meno automatizzati ma più collaudati e comprensibili anche per i non tecnici, come la provenienza di un’immagine, ossia la reputazione e l’attendibilità di chi l’ha prodotta e di chi l’ha diffusa e pubblicata.
Fonte aggiuntiva: Ars Technica.
Secondo Google le uova si possono fondere: l’ha detto Quora, che l’ha letto su ChatGPTGià da qualche tempo gli esperti avvisano di non usare ChatGPT, Bing Chat e altre intelligenze artificiali testuali come strumenti per la ricerca di informazioni, perché tendono a generare risposte fantasiose e inaffidabili a causa di un problema noto come allucinazione o confabulazione. Per cercare informazioni attendibili, dicono, bisogna usare i motori di ricerca. Ma c’è un problema: i motori di ricerca stanno cominciando a integrare nei loro risultati anche le pseudoinformazioni generate dalle intelligenze artificiali e stanno quindi perdendo la propria affidabilità.
Uno degli esempi più chiari e comici di questa tendenza è arrivato pochi giorni fa, quando un utente che si fa chiamare Tyler Glaiel ha notato che la risposta breve o snippet in primo piano di Google alla domanda “è possibile fondere le uova” era “Sì, si può far fondere un uovo. Il modo più comune è riscaldarlo usando un fornello o un forno a microonde.”
Giusto per chiarezza e per evitare equivoci, no, le uova non si possono fondere, come si fonde il cioccolato, il metallo o il ghiaccio applicando calore. Se si applica del calore a un uovo, la sua struttura chimica cambia. Se il calore è sufficientemente intenso, l’uovo si cuoce, non si fonde.
La risposta di Google è quindi sbagliata, e Google l’ha presa da Quora, un sito molto popolare nel quale gli utenti pubblicano domande e risposte su qualunque argomento. L’ha presa da lì perché Quora fa in modo di comparire in cima ai risultati di Google (cioè fa la cosiddetta search engine optimization o SEO). Ma la risposta di Quora è clamorosamente sbagliata, perché da qualche tempo Quora integra nelle risposte fornite dagli utenti anche quelle generate dall’intelligenza artificiale, e la frase sulla possibilità di fondere un uovo è stata generata usando ChatGPT, secondo quello che dichiara Quora.
Ma in realtà Quora non usa la versione più recente di ChatGPT; ne usa una versione vecchia che notoriamente produce risultati molto inaffidabili ed è addirittura sconsigliata dal produttore, OpenAI.
In altre parole, la risposta sbagliata di Google non è di Google, ma è di Quora, che a sua volta l’ha presa da ChatGPT.
L’errore ora è stato corretto, ma il metodo usato da Quora e da Google per fornire risposte alle ricerche degli utenti è pericolosamente inattendibile. Cosa anche peggiore, molte risposte generate da intelligenze artificiali vengono lette e assorbite da Google, creando un circolo vizioso che peggiora l’attendibilità del motore di ricerca.
A volte, fra l’altro, questo circolo vizioso è del tutto involontario: per esempio, il testo di questo podcast e tutti gli articoli che parlano di questa vicenda delle uova che si fondono contengono ovviamente la risposta sbagliata alla domanda “è possibile fondere le uova?”, perché la citano per raccontarla e smentirla, ma questi testi verranno letti da Google e dalle intelligenze artificiali, che quindi rileveranno che molti siti contengono la frase “si può far fondere un uovo”, senza capire che viene citata per avvisare che è sbagliata, e pertanto la considereranno attendibile e significativa e la presenteranno come risposta a chi cerca informazioni sull’argomento, amplificandola ulteriormente.
Ed è così che nonostante le migliori intenzioni una bugia diventa una verità apparentemente certificata, per mancanza di supervisione da parte di un’intelligenza reale.
Fonte aggiuntiva: Ars Technica.
----
Morale della storia, anzi delle storie che avete appena ascoltato: l’intelligenza artificiale è un ottimo strumento, ma ha bisogno di essere affiancata dall’intelligenza umana, che la deve sorvegliare per farla lavorare bene e salvarla quando inciampa o raggiunge i propri limiti. Ma questo affiancamento umano costa, e troppo spesso l’adozione dell’intelligenza artificiale viene vista invece come un’occasione per tagliare le spese, infischiandosene delle conseguenze, invece di offrire un servizio migliore. E i risultati, purtroppo, si vedono.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.Giornata di lavoro difficile? Consolatevi: se non altro, non avete dovuto stare in diretta alla radio, convinti che stesse per arrivare la guerra termonucleare globale
È la mattina del 20 febbraio 1971. A Fort Wayne, in Indiana, il conduttore radiofonico Bob Sievers della radio WOWO è in diretta quando arriva in redazione l’ordine governativo di interrompere la normale programmazione e di attivare la procedura per le trasmissioni d’emergenza, secondo i protocolli stabiliti dall’Emergency Broadcast System, il sistema nazionale di trasmissione che si attiva in caso di catastrofe imminente o di attacco nucleare. L’ordine è valido e autenticato dalla parola chiave corretta di quel giorno, e prevede lo spegnimento delle stazioni radio e TV che non fanno parte del sistema.
L’ordine governativo non specifica la natura dell’emergenza, ma siamo negli anni Settanta, l’incubo della guerra atomica è ben presente nella mente degli americani per via delle tensioni con l’Unione Sovietica. Ciascuna delle parti ha flotte di bombardieri, di sottomarini e di missili intercontinentali armati di testate nucleari pronte per essere recapitate sul territorio nemico, secondo la strategia della distruzione reciproca garantita che fa da fragile deterrente: ciascuno sa che se attacca, la rappresaglia nemica sarà devastante e inevitabile.
Immaginate di essere in diretta e di avere la ragionevole certezza che il momento che tutti temevano sia arrivato, che qualche pazzo abbia davvero immesso i codici di lancio e che migliaia di bombe termonucleari stiano per piovere sull’intero paese, polverizzando tutto e tutti entro una manciata di minuti, e non avete neanche modo di chiamare casa e dire addio.
Questa è la registrazione di come si comportò Bob Sievers.
SIEVERS: [...] 25 before 10... “Doesn't Somebody Want to be Wanted”, the Partridge Family.
ANNUNCIATORE: This stationhas interrupted its regular program atthe request of the United Statesgovernment to participate in the Emergency Broadcast System serving theFort Wayne area. During this period manyradio stations will remain on the air, broadcasting news and officialinformation for areas assigned to them. This station will remain on the air andwill serve the Fort Wayne area. If youare not located in the Fort Wayne area, you should now tune your radio to otherstations until you hear one which isbroadcasting news and information foryour area. You are listening to the Emergency Broadcast System serving theFort Wayne area.
SIEVERS: [...] studio, awaiting furtherinformation. WOWO received this emergencyannouncement just moments ago. We have toverify – we did verify with a specialmessage in code and this is an emergencyaction, directed by the emergency networkand directed by the President. You'veheard Bob Chase tell you that you areto tune to the emergency station inyour area that is remaining on the air. WOWO will remain on the air here in theFort Wayne area to broadcast anyemergency information that is coming in. At this point, at the microphone, I knowof nothing to cause this. We are waitingfrom Stewart [Denn?] in the WOWO newsroomto bring us some information from any ofour wire services. We have been asked tobroadcast this emergency informationimmediately. We will bring you otheremergency information the moment wereceive it, and at this time I wouldpersonally like to urge all members ofthe WOWO news staff, any in the area and listening, to reportto us immediately. We do not know thecause of this emergency notification, butwe ask you to stay tuned. This is Bob Sievers, I'm checking the wires, I'll bewith you the moment we have furtherinformation. We will cease all commercialmessages at this time also.
[musica]
SIEVERS: Again, ladies and gentlemen, we ask youplease, please do not call us to ask whatis the matter. We are endeavoring to findout ourselves. We have received thisofficial emergency action notificationwith the proper identification, indicating a national emergency. We know nothing now. We are watching ourwires. You probably will find that yourown radio stations, unless they are soauthorized, will be off the air. Thisincludes the television stations. Nowplease, if you are in your area and yourradio station is still on, the chancesare....they are the emergency station for yourarea. WOWO is now broadcasting to itsown immediate area, possibly with reducedpower if you're getting our signalweaker. We are to be the informationservice for this area. This is Bob Sievers. I know of nothing yet. We received thisemergency message about ten minutes ago. We are continually watching our wire. Iurge all WOWO newsmen to report to ourstation immediately to help us. Andplease do not call us to ask what is thematter. We do not know. We have receivedthe official notification. We invite youto stay tuned to this station, WOWO inFort Wayne, Indiana, for information as itis received, we hope momentarily.
[pausa] Now this information is just in. Thisinformation is just in from the AP wire: “Attention news directors and all bureaus. Regarding the emergency broadcastmessage which was sent by the Air Forceon this wire about 9:30 this morningEastern Standard Time” – and I am quotingdirect, being completely honest – it says “AT&T advises the AP that the Air Force atCheyenne Mountain in Colorado put thewrong message on tape”. Put the wrongtaped message. The normal tape explainsthe message is merely a test. This is theone that we always receive at this timeon Saturday morning. It says “you will befurther advised when additionalinformation is available”. And so [ride nervosamente] if youthink this hasn't been something here atthe studio, the Air Force evidently thenat Cheyenne Mountain in Colorado put thewrong message tape on the wire.
ANNUNCIATORE: Thisconcludes operations under the Emergency Broadcast System. All broadcast stationsmay now resume normal broadcastoperations.
[musica]
----
Come avrete dedotto dal fatto che siamo ancora qui a parlarne, si trattò di un falso allarme. Wayland S. Eberhart, un operatore di telescrivente (un civile), era di servizio a Cheyenne Mountain, il centro di allerta nazionale per le emergenze (e celebre bunker nucleare adibito a centro di comando delle forze armate in caso di attacco). Eberhart aveva sbagliato a caricare il nastro che veniva utilizzato per provare il sistema ogni sabato mattina e aveva inserito quello di allarme reale al posto di quello di prova, che precisava molto chiaramente che si trattava di un’esercitazione. Questo errore causò decine di minuti di panico in tutti gli Stati Uniti, come raccontato qui. Gli addetti a Cheyenne Mountain ci misero quaranta minuti a trovare la parola chiave segreta di autenticazione necessaria per annullare l’allarme in tutto il paese.
Tanto di cappello a Bob Sievers per la sua flemma e compostezza nel parlare in diretta durante quelli che pensava che fossero gli ultimi istanti di vita suoi e dei suoi cari.
Se vi state chiedendo che fine fece il povero Eberhart, non fu licenziato. La soluzione tecnica adottata per prevenire il ripetersi di questo tipo di falso allarme fu molto semplice: mettere i nastri contenenti l’allarme reale in un posto meno vicino al trasmettitore. Prima di allora, i tre nastri (uno contenente il messaggio di prova e due contenenti l’allarme reale) erano appesi su tre ganci sopra il trasmettitore. Dopo questo incidente, i due nastri di allarme reale furono sigillati dentro buste chiaramente etichettate e messi in un armadietto adiacente.
Pensarci prima no, vero?
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.October 4, 2023
Attenzione a macOS Sonoma, attiva AUTOMATICAMENTE effetti video ridicoli durante le videochiamate
Se avete un Mac con processore M1/M2 (non Intel) e avete già fatto l’aggiornamento alla nuova versione di macOS, denominata Sonoma, fate attenzione a una delle sue novità, che è particolarmente assurda e potenzialmente imbarazzante: macOS su Apple Silicon fa partire automaticamente delle animazioni ridicole durante le videochiamate quando fate alcuni gesti, e questa “funzione” è attiva per default. Sta all’utente scoprire la causa delle animazioni e trovare il modo di disattivarla. La stessa cosa avviene in iOS 17 su tablet e smartphone Apple.
Io me ne sono accorto per caso durante una sessione privata su Zoom, quando mi sono comparsi a sorpresa dei palloncini alle spalle e davanti. Fortunatamente si trattava di una videochiamata informale, ma se fosse stata per esempio una riunione di lavoro, una sessione parlamentare o un webinar di oncologia, il risultato sarebbe stato catastroficamente imbarazzante, anche perché non c’è nessuna indicazione di quale software stia generando queste animazioni. Viene istintivo pensare che si tratti di qualche nuova funzione di Zoom, e non è intuitivo rendersi conto che le animazioni partono quando si compie un gesto specifico o semplicemente un gesto che macOS interpreta in un certo modo.
La verità si scopre soltanto andando a cercare nei motori di ricerca parole chiave come balloons zoom background. Frugando nei risultati finalmente emergono le segnalazioni di altri utenti che si sono imbattuti nello stesso problema e chiedono soccorso, raccontando situazioni imbarazzanti del tipo “sono un terapeuta e quindi è poco professionale che mi compaiano all’improvviso dei palloncini mentre il mio cliente sta parlando di un suo trauma”.
Attivare per default queste animazioni, senza informare l’utente, è una scelta sconsiderata da parte di Apple, seconda solo a quella di Microsoft di nascondere per default le estensioni dei nomi dei file.
Per disattivare questa funzione indesiderata bisogna cliccare in macOS sull’icona verde della telecamera che compare sulla barra menu quando un’applicazione sta usando la telecamera e poi cliccare sul pulsante verde Reactions in modo che diventi grigio.

Fra i gesti che attivano le animazioni ci sono i seguenti:
i due pollici alzati producono fuochi d’artificioi due pollici in basso generano un temporaleil cuore formato con due mani fa emanare una pioggia di cuoricini animatiil gesto di pace (indice e medio disposti a V, palmo in avanti) fatto con una mano sola produce una flotta di palloncini e fatto con due mani genera una nube di coriandoli.Il gesto “rock” doppio (quello che molti confondono con il gesto italiano delle corna) produce raggi laser.Apple illustra tutti i gesti in italiano in una pagina apposita.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.October 2, 2023
Il Delirio del Giorno: se io avessi più amor proprio, potrei “apparire un po' meno prete e più gradevole in viso”
Oh Paolo, ma che mi combini, sostieni di essere andato sulla luna in compagnia di qualcuno eh birbone? No, perchè il titolo del libro così recita: "Luna? Si ci siamo andati", ne risulta che tu ti senta un tu abbia messo piede sul satellite terrestre o che ti senta intimamente partecipe della faccendae con tali compagni di merende che ichiarano di esserci andati, magari con un aereo del NORAD vero? Si, dai tanto simile a quegli aerei biancchi che montano un motore automobilistico con la guarnizione della testa andata, per cui il liquido refrigerante entra in camera di scopio generando quella condensa che violando ogni legge fisica si comporta contro ogni teoria della infallibile scienza (tranne in questo caso vero?), per cui il concetto di saturazione si dissolve come il liquido refrigerante.
Quella particella pronominale ci la dice lunga e dice molto di te Paolino.
Peccato che tu non abbia un amor proprio un po' maggiore che ti eviterebbe di passare per poco intelligente e ti farebbe persino apparire un po' meno prete e più gradevole in viso.
–– Mail ricevuta ieri (2023/10/02)
September 30, 2023
Carrying the Fire: se siete donatori cartacei, controllate la bozza!
Se siete fra i generosi donatori che hanno contribuito al progetto Carrying the Fire con una donazione che include la citazione nelle copie cartacee, controllate le bozze qui sotto: è l’ultima occasione per evitare refusi e omissioni, perché tra poco si va in tipografia!
Se ci sono errori o sistemazioni da fare, scrivetemi a paolo.attivissimo@gmail.com.
Per i donatori che hanno chiesto la citazione nell’e-book, invece, c’è ancora tempo.


September 29, 2023
Piccolo esperimento di voce sintetica con intonazioni decise dall’intelligenza artificiale
Per il podcast settimanale per la RSI preparo un cosiddetto lancio: un breve intervento preregistrato che viene trasmesso sulla Rete Tre della RSI e serve a presentare i temi della puntata. Questa settimana ho provato a generarne due versioni: una naturale, usando la mia voce dal vivo, e una sintetica, basata sulla mia voce clonata a pagamento da ElevenLabs. Eccole.
Riuscite a riconoscere quella sintetica?
Non dovrebbe essere difficile; quello che mi preme far notare, però, è il fatto che la versione sintetica è stata generata partendo da un testo completamente privo di informazioni di intonazione. Molti di questi software di sintesi vocale richiedono che vengano specificati, parola per parola, i toni e altre informazioni, e questo è un lavoro tedioso e lungo.
Il software di ElevenLabs, invece, determina automaticamente le intonazioni da usare, in base al contesto e alla struttura delle frasi: l’unica indicazione che gli ho fornito è il preambolo prima delle virgolette. Eppure notate il modo in cui cambia il tono alle parole “non vi preoccupate”, per esempio. Questo è il testo che gli ho dato in pasto pari pari, scegliendo poi il “ciak” migliore fra i tre o quattro che ho generato per prova:
Paolo parla con voce veloce ed eccitata da disk-jockey radiofonico: "Se qualcuno vi dice che si sta dedicando al dropshipping, ma è stato coinvolto in una sextortion e sta cercando aiuto per un cryptoscam, e non avete la minima idea di cosa stia dicendo, non vi preoccupate: è normale! Sono parole recenti, create per descrivere nuovi fenomeni legati a Internet. Se volete sapere cosa significano o volete approfondirne la conoscenza, c’è una nuova puntata del podcast Il Disinformatico, pronta da scaricare o mettere in coda per l’ascolto, che risponde alle domande degli ascoltatori su trappole e truffe della Rete! Si possono davvero fare soldi con la tecnica di compravendita del "dropshipping", come sembrano voler fare anche molti minorenni? Qual è la strategia per difendersi dai ricatti basati su immagini esplicite ottenute con l'inganno? C’è qualcosa di vero dietro le agenzie che promettono di recuperare i soldi persi in truffe legate alle criptovalute? Sono Paolo Attivissimo, e vi aspetto presso vu vu vu punto erre esse i punto ci acca slash ildisinformatico e su tutte le principali piattaforme podcast!!"
Nel mio caso, il tempo necessario per generare varie volte la voce sintetica è grosso modo lo stesso che ci ho messo a dire il testo dal vivo senza impaperarmi e con l’intonazione che avevo in mente, per cui non si può ancora parlare di risparmio di tempo. Ma ho potuto generare il lancio senza aver bisogno di un microfono e di un ambiente silenzioso, e avrei potuto generarlo anche se fossi stato afono per qualunque motivo.
Ora immaginate questa tecnica applicata alla lettura di un intero libro per produrre un audiolibro, cosa che normalmente richiede decine di ore di disponibilità di uno speaker o di un attore professionista.
Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.Paolo Attivissimo's Blog
- Paolo Attivissimo's profile
- 5 followers
