Secondo un’analisi dell’Istituto per il Dialogo Strategico (ISD), le principali reti neurali come ChatGPT, Grok, DeepSeek e Gemini avrebbero fornito risposte sui temi della guerra in Ucraina basandosi su contenuti provenienti da media russi, molti dei quali sono stati banditi nell’Unione Europea per diffusione di propaganda del Cremlino. Lo studio, pubblicato il 29 ottobre 2025, rivela come lacune nei dati dei motori di ricerca permettano di aggirare le restrizioni europee.
Come è stato condotto lo studio ISD
Tra luglio e ottobre, il dipartimento di sicurezza informativa dell’ISD ha inviato a ciascun chatbot 60 domande in cinque lingue europee, toccando temi come i negoziati di pace, l’atteggiamento verso la NATO, il reclutamento nell’esercito ucraino, la questione dei rifugiati e i crimini di guerra russi. I ricercatori hanno usato tre tipi di quesiti – neutrali, parziali e tendenziosi – per misurare l’influenza delle fonti. Circa il 18% delle risposte conteneva riferimenti a media statali o pro-Cremlino come Sputnik Globe, Sputnik China, RT ed EADaily. In alcuni casi, i chatbot citavano anche siti legati alla rete di disinformazione Pravda o a blogger filorussi sanzionati nell’UE.
ChatGPT il più vulnerabile, Gemini il più accurato
Le risposte basate su fonti pro-Cremlino comparivano nell’11% dei casi con domande neutrali, nel 18% con formulazioni di parte e nel 24% quando l’utente chiedeva riferimenti o esempi. ChatGPT risultava il modello più incline a utilizzare fonti russe, mentre Grok inseriva contenuti da blogger filorussi. Gemini, invece, mostrava i risultati più attendibili, segnalando esplicitamente le fonti legate a Mosca. Gli esperti spiegano che queste distorsioni derivano da carenze nei dataset: quando le IA non trovano abbastanza fonti verificate, tendono a utilizzare siti disponibili anche se bloccati o inaffidabili.
Un rischio crescente per la sicurezza informativa dell’UE
Secondo l’ISD, la vulnerabilità dei sistemi di intelligenza artificiale apre una nuova via alla diffusione di contenuti tossici del Cremlino, minacciando la sicurezza informativa dell’Unione Europea. Anche una piccola percentuale di risposte basate su propaganda russa può raggiungere milioni di utenti, minando la fiducia nella politica europea verso l’Ucraina. In particolare, le fonti “alternative” non dichiaratamente filorusse rappresentano il rischio maggiore, poiché ripropongono i narrativi di Mosca con un’apparenza di neutralità.
La risposta: filtri e audit obbligatori
Per contrastare il fenomeno, l’ISD propone un approccio combinato tecnico e regolatorio. Tra le misure suggerite figurano l’introduzione di filtri obbligatori sincronizzati con le liste di sanzioni UE e audit indipendenti delle piattaforme di intelligenza artificiale, con focus su guerra e processi elettorali. Gli operatori dovrebbero inoltre indicare in modo trasparente le fonti citate e spiegare i criteri di selezione. Senza tali controlli, avverte l’istituto, la propaganda russa rischia di riaffermarsi nello spazio informativo europeo attraverso l’IA, amplificando i messaggi anti-Ucraina e anti-UE.