Foto nude, diffuse online, generate dall'Intelligenza artificiale. Sempre più donne sono vittime di un fenomeno in continua crescita, e che riguarda anche adolescenti e persone non famose
© Tgcom24
Francesca Barra è solo la punta dell'iceberg. Vittima anche lei del deepnude: e cioè foto nude, diffuse online, generate dall'intelligenza artificiale. Ma è un fenomeno che continua a diffondersi e non riguarda solo le vip. Sempre più donne denunciano di essere "spogliate" a loro insaputa e sempre più adolescenti, in Italia e nel mondo, sono state oggetto di immagini di nudo deepfake.
Cos'è il deepnude - È una sottocategoria del deepfake: foto manipolate dall’Intelligenza artificiale per rimuovere gli indumenti di una persona, creando immagini finte e sessualmente esplicite. Questa tecnologia viene usata per realizzare immagini porno di celebrità o altre persone senza il loro consenso spesso a scopi estorsivi o diffamatori.
Adolescenti nel mirino - Un ragazzo su 8 tra i 13 e i 20 anni, e un adolescente su 10 tra i 13 e i 17 anni, ha dichiarato di "conoscere personalmente qualcuno" che è stato oggetto di immagini di nudo deepfake, e 1 su 17 è stato lui stesso vittima. Sono alcuni dati di Thorn, un gruppo no profit americano che si occupa di sicurezza dei più giovani, che fa luce sul fenomeno in crescita del deepnude, una sottocategoria dei deepfake. Con appositi software - come Clothoff bloccato dal Garante Privacy - si è in grado di spogliare un soggetto, creando così un'immagine di nudo realizzata artificialmente e senza il consenso del soggetto. Ne sono state vittime personaggi famosi come Taylor Swift - nel 2014 una sua immagine porno finta fu vista sui social da milioni di persone - ma può colpire tutti. Sempre secondo la ricerca di Thorn, il 13% degli adolescenti ha dichiarato di conoscere qualcuno che ha utilizzato l'intelligenza artificiale per creare o ridistribuire materiale pornografico deepfake di minori.
Un fenomeno in continua crescita - Secondo Graphika, un'azienda che analizza i social network, milioni di persone visitano ogni mese gli oltre 100 siti di 'nudify' online. E, secondo una indagine in Gran Bretagna della società di sicurezza Eset, una donna su 10 è stata vittima di deepfake pornography. Oltre a 'Clothoff' altre applicazioni come BikiniOff e DeepNude manipolando foto di individui e riescono a ricreare contenuti falsi a contenuto pornografico. Già nel 2020 il Garante Privacy si era occupato di tali tematiche e aveva aperto un'istruttoria nei confronti di Telegram, canale tramite il quale venivano diffusi questi bot. In seguito, l'Autorità aveva fornito una scheda informativa connessa ai possibili rischi dell'uso di queste tecnologie, così da sensibilizzare gli utenti.
I numeri in Italia - Anche in Italia si sono verificati casi di cronaca legati ai deepfake porno. Da ultimo il caso denunciato da Francesca Barra, ma il fenomeno riguarda non solo i personaggi famosi. Nel 2023 sono stati fermati due studenti di una scuola media di Roma che hanno pubblicato sui social le foto di alcune coetanee create con l'applicazione BikiniOff. Nel 2024 in provincia di Latina cinque studenti minorenni hanno fatto la stessa cosa prendendo, e poi falsificando, le foto di alcune compagne dai loro profili Instagram. L'osservatorio di Meter ha monitorato e segnalato due gruppi Telegram, nei quali circolavano 125 immagini di studentesse manipolate tramite intelligenza artificiale: foto reali di adolescenti, fotografate di nascosto nelle aule scolastiche, poi denudate ed immesse in gruppi pedopornografici. "Questa è la nuova frontiera della pedocriminalità digitale - ha denunciato il presidente - non siamo più solo davanti a scambi di materiale illegale, ma alla creazione di immagini false, generate o modificate dall'IA, che ledono in modo irreparabile la dignità dei minori. Le studentesse che abbiamo riscontrato sono giovanissime, avranno 14 anni, forse sono ignare delle immagini diffuse online, ma il danno per le vittime è reale e devastante, questo non è assolutamente cyberbullismo come qualcuno lo definisce, è pornografia minorile".