Come la propaganda russa infiltra i modelli di IA: il caso “Portal Kombat”

Negli ultimi mesi, una serie di inchieste giornalistiche e rapporti tecnici hanno acceso i riflettori su una nuova frontiera della disinformazione: quella che passa attraverso l’intelligenza artificiale. Tra i principali attori di questa offensiva informativa vi è (manco a dirlo) la Russia, che – secondo numerosi studi – ha dato vita a una strategia sistematica per influenzare i grandi modelli linguistici come ChatGPT, Grok e Gemini. Il cuore di questa strategia è una rete di siti conosciuta come “Portal Kombat”.
Disinformazione su scala industriale
La rete “Portal Kombat”, rivelata da VIGINUM (l’agenzia francese per la sorveglianza delle interferenze digitali straniere), è composta da centinaia di siti, molti dei quali mascherati da testate locali in lingua inglese, francese, tedesca, italiana e spagnola, oltre a circa 40 portali in russo. Secondo un’inchiesta di NewsGuard, questi siti hanno pubblicato oltre 3,6 milioni di articoli solo nel 2024, contenenti narrazioni favorevoli al Cremlino e tese a screditare l’Occidente.
L’obiettivo non è solo influenzare i lettori, ma saturare il web con contenuti falsi progettati per essere raccolti dai crawler dei motori di ricerca e, successivamente, inglobati nei dataset di addestramento dei modelli di IA. Una tattica definita “LLM grooming” (manipolazione dei modelli linguistici), che sfrutta l’architettura aperta di internet e la dipendenza dell’IA dai dati pubblici.
L’impatto sui chatbot: una minaccia invisibile
Una delle rivelazioni più allarmanti riguarda l’effettiva capacità della propaganda di infiltrarsi nei modelli. Secondo NewsGuard, oltre il 33% delle risposte fornite da dieci principali chatbot occidentali – tra cui ChatGPT, Gemini, Claude – include narrazioni false che originano da articoli di “Portal Kombat” o della rete gemella “Pravda”.
In alcuni casi, i chatbot citano queste fonti come attendibili, ripetendo affermazioni smentite da fact-checker indipendenti. Un esempio emblematico: la falsa notizia secondo cui Zelensky avrebbe vietato la piattaforma Truth Social in Ucraina dopo critiche da parte di Donald Trump. Sei chatbot su dieci, interpellati su questa affermazione, l’hanno riportata come veritiera, facendo riferimento a fonti del network “Pravda“.
L’intelligenza artificiale come moltiplicatore della propaganda
Il caso del sito “DC Weekly”, parte della rete russa, mostra l’efficacia della combinazione tra IA generativa e disinformazione. A partire dal 2023, il portale ha iniziato a utilizzare modelli GPT-3 per riscrivere articoli propagandistici in modo originale, aumentandone la credibilità e la diffusione. Uno studio pubblicato su PNAS Nexus ha dimostrato che gli articoli così riscritti erano percepiti come altrettanto o più affidabili degli originali da un campione rappresentativo di lettori statunitensi.
In un discorso del gennaio 2024, John Mark Dougan – noto commentatore filo-Cremlino basato a Mosca – ha ammesso esplicitamente che l’obiettivo di queste operazioni è “cambiare l’IA a livello globale”, alterando la percezione della realtà nei modelli utilizzati da milioni di utenti ogni giorno.
Una sfida per le democrazie occidentali
Il rischio è profondo: mentre la disinformazione tradizionale può essere identificata e smentita, l’infiltrazione nei modelli di IA è più subdola, invisibile, e difficilmente controllabile. Secondo Nina Jankowicz, direttrice dell’American Sunlight Project, “questa è la prima volta nella storia in cui un attore ostile può influenzare così profondamente lo strumento informativo più usato al mondo, senza bisogno di attaccarlo direttamente”.
Le contromisure possibili
Se non si interviene, esiste il rischio che gli strumenti creati per facilitare la conoscenza diventino, inconsapevolmente, veicoli di propaganda. Per contrastare questa infiltrazione, le principali aziende tecnologiche hanno iniziato ad adottare misure difensive.
OpenAI, Anthropic e xAI hanno introdotto meccanismi di revisione umana per i dati di addestramento, mentre altre aziende stanno investendo in strumenti per tracciare le fonti utilizzate dai modelli e rimuovere quelle considerate inaffidabili. Tuttavia, queste misure sono decisamente insufficienti. Serve un approccio coordinato, in cui governi, società civile e industria tecnologica collaborino per definire standard chiari di trasparenza, sicurezza e qualità dei dati utilizzati per l’addestramento dei modelli linguistici.
Il caso “Portal Kombat” ci ricorda che la neutralità tecnologica non esiste: ogni strumento, anche il più avanzato, può essere distorto se lasciato senza controllo. Se vogliamo che l’AI rimanga una forza al servizio della verità, della scienza e della democrazia, dobbiamo difenderla dalle manipolazioni e garantire che risponda a criteri di integrità, accuratezza e pluralismo.
La battaglia per l’informazione del futuro non si combatte più solo nelle redazioni o nei parlamenti, ma anche – e sempre più – nelle righe di codice che istruiscono le nostre macchine.
A proposito di lotta alle ingerenze ostili, alleghiamo il link per rivedere il convegno “Scudo democratico. Difendere la democrazia dalle interferenze straniere”, organizzato lunedì 26 maggio nella Sala Capitolare di Palazzo della Minerva su iniziativa del Sen. Marco Lombardo.