Un fenomeno spaventoso che come un virus sta infettando ogni angolo del selvaggio e sempre più raccapricciante web, finito sotto i riflettori a causa di Grok, il chatbot di Elon Musk integrato nella piattaforma social X. Stiamo parlando della crescente diffusione delle app di nudificazione, ovvero applicazioni e siti web che permettono di “spogliare” immagini di persone vestite. Molte di queste piattaforme consentono anche di generare video pornografici con i protagonisti delle foto inseriti all’interno di scene sessuali a loro insaputa. E sempre più spesso, anche in Italia, le vittime di questi abusi informatici sono i minori.
L’autorità britannica per i media, Ofcom, ha avviato un’indagine su X per l’uso di Grok nella produzione di immagini sessualmente esplicite non consensuali e la piattaforma è stata bloccata in Malesia e Indonesia proprio per questo. In risposta alle accuse, il social network del miliardario americano ha annunciato di aver rafforzato delle misure per arginare il chatbot. E la restrizione si applicherà a tutti gli utenti, anche a coloro che sono abbonati.
Facciamo un passo indietro: nelle scorse settimane, l’ex Twitter era diventato una cloaca di questo genere di immagini, che – a centinaia – mostravano donne e bambini seminudi. Lanciato nel 2023, Grok è disponibile gratuitamente su X: gli utenti possono porre domande al chatbot e condividere sia i post creati sia le risposte ai post di altri utenti. La scorsa estate l’azienda ha aggiunto un aggiornamento per creare immagini, Grok Imagine, che include una “modalità spicy”, capace di produrre contenuti per adulti. E così anche in uno dei social più frequentati del mondo si sono diffuse immagini indecenti di persone inconsapevolmente finite spogliate sulla pubblica piazza. La società di analisi americana Copyleaks sostiene che Grok abbia generato circa un’immagine sessuale non consensuale al minuto nelle 48 ore precedenti al 31 dicembre.
Per quanto riguarda app e siti come Clothoff, Nudify, Undress e DrawNudes – solo alcuni dei nomi più conosciuti – da una recente analisi condotta su 85 portali web diversi, il valore del porno generato artificialmente potrebbe superare 36 milioni di dollari l’anno. Lo studio, condotto nel luglio 2025 da Indicator, specializzata nelle indagini sulle frodi digitali, segnala che 18 di questi siti avrebbero guadagnato tra 2,6 e 18,4 milioni di dollari in soli sei mesi. La maggior parte dei siti si appoggia alle infrastrutture tecnologiche di Google, Amazon e Cloudflare e macina montagne di denaro, nonostante le misure restrittive per arginare queste fogne del web. Tra i nomi più diffusi in Italia troviamo Clothoff, BikiniOff e DeepNude. Clothoff in particolare, è stata oggetto di un provvedimento d’urgenza dall’Autorità garante per la protezione dei dati personali emesso il 3 ottobre scorso. La piattaforma è gestita dalla società AI/Robotics Venture Strategy 3 con sede nelle Isole Vergini Britanniche. Il sito non aveva nessun meccanismo di verifica dell’identità degli utenti: anche i minori potevano accedere e spogliare le foto delle loro compagne di banco o – peggio – generare video hard. Fatti, tra l’altro, realmente accaduti: nel 2023 in una scuola media di Roma sono stati fermati due studenti per aver pubblicato sui social le foto di alcune coetanee svestite create con BikiniOff. Anche l’anno dopo, nel 2024, è successo lo stesso: cinque studenti minorenni hanno rubato e falsificato le foto delle compagne di classe dai loro profili Instagram.
È stata l’intelligenza artificiale a rendere possibile la diffusione di questa nuova forma di violenza.
«Il deepfake è una tecnica che utilizza modelli di intelligenza artificiale visiva per sostituire in tempo reale un volto con un altro. Per farlo, il sistema ricostruisce prima l’immagine in tre dimensioni, basandosi su singoli frame o su più fotogrammi di un video, così da modellare accuratamente la scena. Successivamente, il volto originale viene sovrapposto con quello di un’altra persona, creando un risultato praticamente indistinguibile dall’originale», spiega Giordano Sconti, consulente tecnico informatico forense.
Save the Children
Un sondaggio di Save the Children ha svelato che in Spagna un giovane su cinque è stato vittima di immagini deepfake di nudo. Ma c’è di più: il 97% degli intervistati ha dichiarato di aver subito qualche forma di violenza sessuale online da minorenne. Dimostrazione che ciò che sembra confinato alla sfera virtuale, non lo è. «La tecnologia – spiega – ha reso possibile la creazione di immagini sintetiche e lo stesso principio vale per l’audio. Oggi è possibile generare un discorso sintetico che emula con precisione la pronuncia, il timbro e l’intonazione della voce originale». L’ organizzazione europea AI Forensics ha confrontato 20 mila immagini generate da Grok e 50 mila richieste degli utenti, e ha rilevato che più dell l’81% raffigurava donne e circa il 2% dei post analizzati ritraeva minorenni. «I criminali – spiega l’esperto – prelevano le immagini da siti pornografici o pedopornografici e le utilizzano con i modelli, sfruttando le stesse tecniche dei deepfake: in pratica sostituiscono il corpo nudo di una donna o di un bambino con quell’immagine. Purtroppo, su piattaforme come OnlyFans, alcuni malintenzionati effettuano riprese o screenshot dei contenuti e li mettono a disposizione dei modelli di intelligenza artificiale». Le giovani donne sono particolarmente esposte a questo fenomeno, ma anche i bambini sono un bersaglio. «Ho affrontato un caso giudiziario di un pedofilo in una delle principali città dell’Italia centrale: sul suo pc abbiamo rinvenuto diversi modelli che producevano materiale pedopornografico, li aveva crittografati in modo tale che non si potessero recuperare i certificati per fare la decrittografia». «Siamo riusciti a tirar fuori tutto: questo individuo creava modelli che generavano centinaia di foto e video pedopornografici e li condivideva in rete» conclude. L’IA consente di creare immagini nude estremamente realistiche e in questo modo accresce i casi di molestie e ricatti sessuali online. Le vittime vengono spesso costrette a pagare somme di denaro per evitare la diffusione dei contenuti falsi che le riguardano.
L’Europol
L’ Europol ha lanciato l’allarme sulla crescita di questo fenomeno, mentre il rapporto dell’Internet Watch Foundation già nel luglio 2024 evidenziava che il 90% delle immagini analizzate risultava talmente realistiche da essere considerate equivalenti a materiale reale. Tra gli strumenti preferiti dai pedofili figurano modelli di intelligenza artificiale open-source, quindi gratuiti, libera modificabili e appositamente addestrati allo scopo. E il pericolo è concreto: i deepfake pedopornografici possono avere effetti psicologici tanto gravi quanto le foto reali. Oltre alla diffusione di immagini sessuali, i falsi artificiali vengono impiegati per adescare i minori online. Questi criminali – fingendosi a loro volta bambini – inviano al minore video falsi di loro stessi per generare fiducia. Una volta ottenuta, cominciano ad avanzare richieste di foto reali che, nelle mani del mostro artificiale, diventano contenuti pornografici perfetti per il ricatto. Così le richieste si moltiplicano all’infinito.
Leggi anche:
- I furbetti dei resi: così Amazon mette all’angolo le piccole imprese
- Tariffe, menù, stellette e terminali all’estero: nel sesso sul web il kamasutra dei reati
© Riproduzione riservata