La giornalista Rai, Manuela Moreno vittima di deepfake pornografici: immagini false generate con l’intelligenza artificiale la ritraggono nuda e associata a contenuti porno. “Una violenza sessuale virtuale che va fermata”.
Una nuova frontiera della violenza contro le donne si consuma nel silenzio della rete, dove l’intelligenza artificiale viene usata per generare immagini pornografiche false. Tra le vittime, la giornalista Rai Manuela Moreno, che da oltre vent’anni denuncia gli attacchi sessisti e oggi sceglie di esporsi pubblicamente contro una nuova forma di abuso.
“Una violazione dell’intimità, umiliazione, offesa, una vera e propria violenza sessuale” – così Manuela Moreno descrive l’impatto devastante delle immagini deepfake che la ritraggono nuda, associate a contenuti pornografici mai realizzati. Le foto, generate con l’AI, sono apparse su siti sessisti che promettono di “spogliare chi vuoi”, offrendo agli utenti la possibilità di denudare virtualmente conduttrici, cantanti, attrici e politiche.
Moreno ha scoperto di essere coinvolta grazie alle segnalazioni ricevute sui social. “È molto difficile bloccarli, le immagini in poco tempo fanno il giro del web. Anche film pornografici con il mio volto”, ha raccontato a Rainews.it. . La sua testimonianza ha acceso i riflettori su un fenomeno inquietante: l’uso malevolo dell’intelligenza artificiale per creare contenuti non consensuali, che ledono la dignità e la reputazione delle vittime.
Deepfake e pornografia non consensuale
I siti incriminati raccolgono foto modificate digitalmente, esibendo nudità che non esistono. Si tratta di video, immagini e audio manipolati con l’AI per far sembrare che una persona dica o faccia qualcosa che non ha mai detto o fatto. Il risultato è una rappresentazione falsa, ma visivamente credibile, che può distruggere la vita privata e professionale di chi ne è vittima.
La polizia postale ha avviato accertamenti sulla natura dei contenuti messi in rete, ma il fenomeno è in rapida espansione e difficile da contenere. Le immagini, una volta diffuse, diventano virali e quasi impossibili da rimuovere. Il danno è immediato e profondo.
Un problema sociale e culturale
La diffusione di contenuti deepfake pornografici ha radici profonde: da un lato, l’intrattenimento morboso e la parodia; dall’altro, la disinformazione e la manipolazione politica. Ma è soprattutto l’uso malevolo – quello che colpisce donne comuni e famose, spesso a loro insaputa – a rappresentare una forma di violenza digitale che va riconosciuta e fermata.
“È fondamentale fare rete, restiamo unite”, ha dichiarato Manuela Moreno, sottolineando l’importanza della solidarietà tra donne. Il suo appello è stato raccolto dall’associazione Giornaliste Italiane, che ha espresso vicinanza a lei, a Francesca Barra e a tutte le vittime: “Questa violenza lede non solo la professionalità, ma l’immagine delle donne, colpite nella femminilità ancora una volta”.
Serve una lente critica sull’AI
Più l’intelligenza artificiale generativa migliora, più diventa urgente dotare cittadini e utenti di strumenti critici. I contenuti artificiali possono apparire indistinguibili dalla realtà, alimentando il rischio di disinformazione su larga scala, con conseguenze politiche, sociali ed economiche.
La vicenda di Manuela Moreno non è un caso isolato, ma un campanello d’allarme. Serve una risposta collettiva: normativa, educativa, culturale. Serve riconoscere che la violenza digitale è reale, anche se virtuale. E che l’intelligenza artificiale, se non regolata, può diventare uno strumento di abuso.
