Podcast RSI - Story: Deepfake fra plagio, abuso e autodifesa

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare .

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

Deepfake. È la parola usata perindicare la tecnica informatica che permette di sostituire il voltodi una persona con un altro, in foto e in video, usando l’intelligenzaartificiale, in maniera molto realistica. Così realistica che, se ildeepfake è fatto bene, la maggior parte delle persone non siaccorge affatto che si tratta di un volto sostituito.

Per molti utenti, deepfakeè sinonimo di molestia, di truffa, ma per altri invece èun’occasione di lavoro, di scoperta della propria personalità, eaddirittura di protezionepersonale.

Benvenutiallapuntata del 12aprile 2024del Disinformatico, chestavolta racconta due casimolto differenti di applicazione di deepfakeche spaziano dal plagio alla molestia fino all’autodifesa,e presenta le nuove regole di Meta per la pubblicazione di deepfakee immagini sintetiche in generale.Io sono Paolo Attivissimo.

[SIGLA di apertura]

Influencer virtuali in crescita ma sotto attacco deepfake

Pochi mesi fa, a dicembre 2023, vi ho raccontato la miaesplorazione del fenomeno delle cosiddette influencer virtuali:persone che non esistono, le cui immagini e i cui video sono generatidall’intelligenza artificiale. Identità che sono pilotate da persone realiche scelgono le loro pose, il loro vestiario e le loro apparizionisui social network.

Una delle più celebri influencervirtuali è la spagnola Aitana Lopez, gestitada un’agenzia di moda diBarcellona: oggi haoltre 300.000 follower su Instagram (@fit_aitana)e fa guadagnare i suoi creatori tramite icontratti pubblicitari e lavendita di foto piccantisu piattaforme per adulti come Fanvue.

L’idea dell’influencervirtuale, quasi sempre al femminile (anche se c’è qualche raro,timido tentativo al maschile), piace molto al mercato: costa molto meno diuna modella o di unainfluencer in carne e ossa,non si lamenta delle ore di lavoro o dei vestiti scomodi, non sistanca, non invecchia, noningrassa e non ha spese ditrasferta. Se una campagnapubblicitaria ha bisogno di un volto o di un corpo che attirinol’attenzione o semplicemente indossino un certo prodotto, può rivolgersia questi personaggi sintetici a basso costo e alta efficienza.Nessuno del pubblico si accorgerà che si tratta di immagini generatedall’intelligenza artificiale.

Crearequesti personaggi virtuali è abbastanza semplice: ero riuscitoanch’io a creare un clone molto realistico di Aitana Lopez, conl’aiuto di una coppia dipersone espertedi grafica digitale. La parte difficile è guadagnarciqualcosa, cercando sponsor o contratti pubblicitari e scansando leofferte truffaldine di una selva di sedicenti promotori che si fannopagare promettendo di farti avere tanti follower (tutti falsi). Hochiuso il mio esperimentosenza rimetterci soldi,ma ho continuato a seguiregli sforzi di chi mi avevaaiutato e che oracomincia a vedere i primi guadagni. Qualche foto per la copertina diun CD o di una playlistdi una band emergente,qualche illustrazione per piccoli eventi, qualche fotografia sexyvenduta online, tanticontenuti pubblicati diligentementetutti i giorni, ei follower, soprattutto su Instagram, allafine arrivano, anchenel mercato di lingua italiana,al di qua e al di là della frontiera.

Profili sintetici come FrancescaGiubelli (11.000 follower), RebeccaGalani (15.000 follower) oAmbrissima(37.000 follower) vengonointervistati virtualmente dai media generalisti come se fosseropersone reali, e spostano opinioni e creano discussioni, anche sutemi impegnativi come il clima o i diritti umani, proprio come se fosseropersone reali. Nonhanno i numeri dei grandiinfluencer reali, certo, main compenso costano molto meno e soprattutto nonfanno gaffe e non causano imbarazzi ai loro sponsor conle loro vicende sentimentali.Aspettatevi, insomma, che neiprossimi mesi siano sempre più presenti e numerosi gli influencervirtuali le cui immagini sono generate con l’intelligenzaartificiale.

Stanno nascendo anchele prime community diinfluencer virtuali in lingua italiana, come Aitalia.community,i cui membri si scambianotrucchi e consigli tecnici e di marketing e si sono datiun “manifestoetico” di trasparenza,che esige per esempio che icontenuti sintetici siano sempre dichiarati come tali (a differenzadi alcuni settimanali blasonati che spacciano per autentichedelle foto talmente ritoccate da dare duepiedi sinistri alle persone ritratte).

View this post on Instagram

A post shared by AITALIA Community (@aitalia.community)


Al primopunto di questo manifesto c’èil divietodei deepfake nonconsensuali. Moltissimiartisti digitali che creano ecurano belle immagini di modelle e modelli virtuali si vedono infattiplagiare il lavoro da operatorisenza scrupoli, che scaricano inmassa le immagini prodotteda questi artisti,sostituiscono i voltidei loro personaggi usandola tecnica del deepfake, senzapermesso e senza compenso, ecosì riusanoa scrocco la fatica altruiripubblicandola sui propriprofili social, che spesso hanno un seguito maggiore di quello degliartisti originali.

È un nuovotipo di pirateria dei contenuti,ed è un problemachetocca anche le modelle e i modelli in carne e ossa. Nellevarie piattaforme social,infatti, abbondano i profiliche hanno centinaia di migliaia di follower, con i relativi guadagni,ottenuti pubblicandole foto oi reel, ossiai video, di persone reali,quasi sempre donne, e sostituendone i volti perspacciarli perimmaginicreateda loro. Lo segnala peresempio unarticolosu 404media,facendo nomi e cognomi di questi sfruttatori della fatica altrui.

Molti creatori di contenuti sistanno difendendo usando il watermarking,ossia la sovrimpressione di scritte semitrasparenti per identificarel’autore originale dell’immagine sintetica o reale, mai software di intelligenza artificiale riescono spesso a cancellare queste sovrimpressioni.

Se state pensando di fare l’influencervirtuale o reale perché vi sembra un lavoro facile, o di promuoverela vostra arte online, mettete in conto anche il rischio dellapirateria. E se pensavate chefare la modella o il modello fosse uno dei pochi lavori noninfluenzati dall’intelligenza artificiale, devo darvi unadelusione: aparte forse marmisti e pizzaioli,non si salva nessuno.

Salva dallo stalking grazie al deepfake: SikaMoon

Dalla Germania arriva un caso molto particolare di uso positivodella tecnica del deepfake,segnalato in un’intervista pubblicata da DieTageszeitung e dedicata auna giovane donna che si fa chiamare Sika Moon e pubblica evende onlinele proprie foto e i propri video per adulti. Questo è il suo lavoroa tempo pieno, e le sue attività sulle varie piattaforme social sonoseguite in media da circa 4 milioni di persone al mese, dandoleguadagni mensili che lei definisce “stabilmente a cinquecifre”.

View this post on Instagram

A post shared by Sika Moon (@sika.moon)


Ancheil suo lavoro è stato toccato dall’intelligenza artificiale. Percinque anni ha lavorato pubblicando sulla piattaforma Onlyfans,mostrando il suo vero volto, ma delle esperienze di stalking chedefinisce “terribili”l’hanno costretta a proteggersi ricorrendo all’anonimato,ottenuto in questo caso facendo un deepfakea se stessa. Il viso della donna in questione, infatti, nelle foto enei video è generato con l’intelligenza artificiale, ed èdifferente dal suo, ma è talmente realistico che pochi si accorgonodella manipolazione. Ora hacambiato piattaforma, perché Onlyfans rifiuta i contenuti generatisinteticamente.

Questodeepfake, insomma, leha permesso di evitare che il suo lavoro fosse sabotato dagli stalkere le consente di proseguire la propria attività in sicurezza. È untipo di uso positivo diquesta tecnologia che non riguarda solo chi vuole proteggersi dapersone pericolosamenteinvadenti ma vale anche, peresempio, per chi vive in un ambiente in cui è considerato reato,tipicamente solo per le donne, mostrare il proprio volto oppure ècomunque necessario coprirlo o mascherarlo per non farsi identificare, per provare in sicurezza esperienze altrimenti impossibili. Un deepfake, insomma, è unamaschera che però lascia passare tutta l’espressività di un viso.

Inoltre, sempregrazie all’intelligenza artificiale, Sika Moonpuò comunicare con i propri fan direttamente nella loro lingua. Hainfatti fatto clonare la propria voce e quindi può ora inviaremessaggi vocali ai suoi follower parlando ogni volta nella loro rispettivalingua.

Nell’intervista, Sika Moonsegnala inoltre un altro fenomeno interessante che riguarda leimmagini generate dall’intelligenza artificiale: inmolte culturel’idea stessa che una fotografia di una persona possa essere creatasinteticamente è inconcepibile ofa molta fatica a essere accettata. In fin dei conti, una foto è unafoto, un disegno è un disegno. Solo il computer permette di crearein grandi quantità disegni che sembrano fotografie.“La gente in India, nei paesi africani e in quelli arabidi solito non lo capisce affatto”,spiega Sika Moon, nonostante ilsuo profilo dichiari chiaramente che molte sue immagini sonocompletamente generate dall’intelligenzaartificiale. E quello chedice corrisponde anche alla mia esperienza nel seguire le attività dialtre persone che fanno lo stesso lavoro di Sika Moon appoggiandosiall’informatica per le proprie immagini.

Tutto questo sembra indicare chel’impatto culturale dell'IA sarà differente nei vari paesi delmondo. In quelli tecnologizzati verrà probabilmente attutito dallafamiliarità con la tecnologia, ma in altri sarà molto piùdestabilizzante. Forsesarebbe opportuno tenerne conto, per non creare una nuova forma diinquinamento digitale da esportare.

Nuove regole di Meta per i contenuti sintetici

La stragrande maggioranza delle foto, dei video e degli audiogenerati dall’intelligenza artificiale circola sui social networked è lì che ha il maggiore impatto. Ma allora perché i socialnetwork non fanno qualcosa per impedire la diffusione di fake news,inganni e manipolazioni che usano l’intelligenza artificiale?

La risposta a questa domanda è che in realtà i social fannoqualcosa, ma quello che fanno è inadeguato, perché la tecnologia sievolve talmente in fretta che le regole scritte per esempio dalgruppo Meta per uniformare la gestione dei contenuti sintetici daparte di Facebook, Instagram e Threads risalgono a soli quattro annifa ma sono completamente obsolete. Nel 2020 i contenuti realisticigenerati dall’intelligenza artificiale erano rarissimi e si temevasoprattutto la manipolazione dei video. Da allora, invece, sonoemerse le immagini sintetiche realistiche producibili in massa eanche i contenuti audio falsi e creati artificialmente.

E così Meta ha presentato le sue nuove regole con un comunicatostampa il 5 aprile scorso: prossimamente smetterà di censurare direttamente i contenuti “innocui” generati dall’intelligenza artificiale e apartire da maggio applicherà un’etichetta di avviso a una gammapiù vasta di contenuti video, audio e di immagini se rileverà chesono stati creati o manipolati adoperando l’intelligenzaartificiale o se chi li pubblica li indicherà spontaneamente comegenerati usando questa soluzione.

Mentre finora le regole bandivano soltanto i video realizzati oalterati con l’intelligenza artificiale che facevano sembrare che una persona avesse dettoqualcosa che non aveva detto, ora verranno etichettati anche i videomodificati per attribuire a una persona un comportamento o ungesto che non ha commesso. Da luglio, inoltre, Meta smetterà dicensurare i contenuti generati che non violano le regole su argomenticome le interferenze elettorali, il bullismo, le molestie, laviolenza e l’istigazione. In sostanza, ci saranno meno rimozioni epiù etichettature di avvertimento.

Tuttavia c’è il problema che al momento attuale Meta si affidaagli indicatoristandard per riconoscere le immagini sintetiche. Molti softwareper la generazione di immagini, come quelli di Google, OpenAI,Microsoft, Adobe, Midjourney e Shutterstock, includono nelle proprie immaginiun indicatore visibile o rilevabile digitalmente, una sorta dibollino che le marca come sintetiche, e Meta usa solo questoindicatore per sapere se un’immagine è alterata oppure no; non fanessun altro controllo. Di conseguenza, un creatore ostile può quindi generareimmagini o video senza indicatori, o togliere questi indicatori dacontenuti esistenti, che non verranno riconosciuti ed etichettati daMeta come sintetici.

Per colmare almeno in parte questa lacuna, Meta offrirà agliutenti la possibilità di etichettare volontariamente i contenutigenerati con l’intelligenza artificiale e applicherà penalità achi non usa questa etichettatura. Ma è chiaro che chi vuoleingannare o disseminare disinformazione non aderirà certo a questovolontariato e potrà farla franca anche con le nuove regole. Come alsolito, insomma, i social network fanno troppo poco, troppo tardi.

Fonte aggiuntiva: ArsTechnica.

Scritto da Paolo Attivissimo per il blog Il Disinformatico. Ripubblicabile liberamente se viene inclusa questa dicitura (dettagli). Sono ben accette le donazioni Paypal.
 •  0 comments  •  flag
Share on Twitter
Published on April 11, 2024 23:33
No comments have been added yet.


Paolo Attivissimo's Blog

Paolo Attivissimo
Paolo Attivissimo isn't a Goodreads Author (yet), but they do have a blog, so here are some recent posts imported from their feed.
Follow Paolo Attivissimo's blog with rss.