UNICEF: Allerta sull’Aumento delle Immagini Sessualizzate Generati dall’Intelligenza Artificiale
GINEVRA – L’UNICEF esprime crescente preoccupazione per l’aumento di immagini sessualizzate generate dall’Intelligenza Artificiale (IA) in circolazione, comprese fotografie di bambini manipolate. Questa informazione emerge da nuovi dati diffusi nell’ambito della seconda fase del progetto “Disrupting Harm”, condotto dall’UNICEF Office of Strategy and Evidence – Innocenti, ECPAT International e INTERPOL, con il sostegno di Safe Online, riporta Attuale.
I deepfake, che comprendono immagini, video o audio manipolati per sembrare reali, vengono utilizzati sempre più per creare contenuti sessualizzati che coinvolgono minori. Tra le tecniche impiegate vi è la “nudificazione”, in cui strumenti IA alterano o rimuovono gli abiti nelle foto. Secondo lo studio, in 11 paesi (Armenia, Brasile, Colombia, Repubblica Dominicana, Messico, Montenegro, Marocco, Macedonia del Nord, Pakistan, Serbia e Tunisia), almeno 1,2 milioni di bambini hanno riportato che le loro immagini sono state utilizzate in deepfake sessualmente espliciti nell’ultimo anno, con punteggi che indicano che un bambino su 25 potrebbe essere coinvolto, equivalente a uno in una classe tipica.
La consapevolezza del pericolo è alta tra i bambini stessi. In alcuni paesi citati, fino a due terzi dei giovani hanno espresso timore che l’IA possa manomettere le loro immagini per creare contenuti sessuali falsi. Le differenze nei livelli di preoccupazione tra i vari paesi evidenziano la necessità di iniziative più efficaci di sensibilizzazione e protezione.
Rapporti nazionali che sintetizzeranno i risultati a livello paese saranno pubblicati nel 2026. “È essenziale comprendere che le immagini sessualizzate di bambini create o modificate tramite strumenti IA rappresentano un abuso sessuale su minorenni (CSAM)”, dichiara l’UNICEF. “L’abuso tramite deepfake è reale e causa danni concreti. Quando l’immagine di un bambino viene utilizzata, quel bambino è direttamente vittimizzato”.
Nonostante le iniziative proattive da parte di sviluppatori di IA per integrare misure di sicurezza nella progettazione, l’UNICEF nota che il panorama rimane disomogeneo. “Troppi modelli di IA non sono sviluppati con adeguate misure di sicurezza”, afferma l’agenzia, sottolineando come i rischi aumentano quando la tecnologia è integrata nelle piattaforme di social media.
In questo contesto, l’UNICEF chiede che venga affrontata con urgenza la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall’IA, richiedendo misure specifiche ai governi e agli sviluppatori. Le proposte includono l’ampliamento delle definizioni di CSAM per includere contenuti generati dall’IA, la criminalizzazione della loro produzione e diffusione, nonché l’implementazione di tecnologie di rilevamento avanzate da parte delle aziende digitali per prevenire la diffusione di tali materiali.
“Il danno derivante dall’abuso dei deepfake è reale e urgente”, conclude l’UNICEF. “I bambini non possono aspettare che la legge si adegui”.