
di Massimo Ortolani – Prima parte: Informazione e guerra cognitiva.
Il rapporto esistente tra informazione e guerra cognitiva è notoriamente identificabile nell’uso dell’informazione per scopi conflittuali, in relazione al fatto che la guerra cognitiva (d’ora innanzi GC) è stata ideata principalmente per supportare, in conflitti di molteplice natura, il raggiungimento di obiettivi di conoscenza, fortemente dipendenti dalle capacità di informazione e di comunicazione(1). Come tale, la GC, applicandosi attualmente ad una spiccata varietà di forme di conflitto, comprendenti non solo la sfera militare, ma anche quella politica, economica, culturale e sociale – con il fondamentale intento di opporsi alle capacità di conoscere, produrre e contrastare attivamente la conoscenza – finisce con il rappresentare una delle connotazioni forse più fluide, indefinite e vischiose della guerra ibrida.
Inoltre, avvalendosi dei contributi ricavabili dalle scienze cognitive che si occupano dei processi della conoscenza (psicologia, linguistica, neurobiologia, logica ed altre), la GC può essere concettualmente accostata a quella tipologia di conflitto che in anni passati veniva associata alla nozione di “war amongst the people”, le cui azioni possono avvenire ovunque, e soprattutto perché “i civili costituiscono sia i bersagli, obiettivi da conquistare, sia una forza di opposizione”(2).
Le modalità con le quali queste discipline sono in grado di fornire strumenti di attacco diretto al cervello ed alla mente umana discendono notoriamente dai fondamenti conoscitivi delle funzioni consce ed inconsce della stessa, tra le quali in primis, l’elaborazione del pensiero ed il controllo delle emozioni. Ma, come autorevolmente sottolineato:(3) “Tutti questi processi sono prevedibili e manipolabili”. Con il risultato che la strategia della guerra cognitiva in una competizione fra potenze viene in tal modo ad individuarsi nell’attacco strumentale al modo in cui gli individui pensano e votano. Con la sottesa finalità, da parte del paese agente di una GC – mirata, subliminalmente al funzionamento dei sistemi istituzionali del paese target – se non per sovvertirli, di modificare/impedire la realizzazione di obiettivi di interesse nazionale oppositivi a quelli perseguiti dall’agente.(4)
L’aspetto di maggiore rilevanza, in merito alle modalità attuative della GC non risiede, a giudizio di chi scrive, unicamente nella notoria creazione e gestione di processi infodemici, ovvero di un sovraccarico di informazioni e conoscenze, quanto piuttosto nella configurazione contenutistica di tale infodemia, cioè nella scelta delle informazioni algoritmicamente profilate sui target personalizzati con mirati criteri di analisi, allo specifico scopo di rendere plausibili solo ridotti parametri di valutazione. Con l’effetto di limitare la capacità di mettere in discussione i dati o le informazioni reperite, e quindi a scapito di un processo decisionale autocritico. Lo studio del CASD (ved. nota 3), in tema di processi decisionali pone l’attenzione sul ruolo incisivo della parte inconscia della mente umana nei processi di elaborazione del pensiero, che per tale ragione diviene bersaglio specifico delle azioni di GC. Segnalando, in sintesi, come i limiti al libero esplicarsi del pensiero autocritico siano rappresentati dalle scorciatoie euristiche della mente, che inducono a non considerare informazioni razionali o logiche che pongono a rischio elementi identitari (valori, credenze, cultura, ecc), ed a privilegiare, per converso, quelle informazioni non distorsive con sentimenti ed emozioni scaturenti, appunto, dalla parte inconscia.
Una declinazione di tale tendenza è rinvenibile nel cosiddetto “doubt casting”, ovvero nell’azione che riesce a minare subdolamente la fiducia nelle verità già consolidate, e ad insinuare negli individui una sensazione di indeterminatezza capace di rendere più sfumato e quasi inafferrabile un giudizio supportato da fatti comprovabili. Un riflesso elettorale di tale implicazione è quello visibile in quanti votano ormai prevalentemente in base a paure di natura economica e sociale, alimentate, appunto, dai dubbi sulla propria capacità di discernimento. Con il palese risultato di rendere estremamente labile il confine tra ciò che è reale e ciò che è opinabile, ma al tempo stesso di rendere molto più complesso contrastare quelle narrazioni polarizzanti, frutto anche di confirmation biases(5) strumentalmente utilizzabili in contesti di guerra cognitiva.
Nelle strategie di competizione di potere, un ulteriore obiettivo tentativamente raggiungibile è quello connesso all’uso delle perlocuzioni, ed in particolare a quello delle implicature, ovvero ai contenuti suggeriti da una parola – o frase – anche se allusivi o non rigorosamente impliciti nel testo. Avvalersi di queste modalità espressive del linguaggio – spesso sfuggenti ed inapparenti – consente infatti di ampliare a dismisura l’area del potenziale attacco, grazie a commenti o riferimenti a quei fatti, anche di cronaca, in grado di solleticare nella mente del lettore/spettatore quelle prevedibili implicature di carattere socio-politico – più facilmente veicolabili, appunto, grazie a tali modalità – velatamente elusive di un impatto propagandistico tranchant. Da sottolineare poi il ricorso al decisamente strategico fattore di diffusione di info propagandistiche, vale a dire alla “ripetizione costante” di argomenti e narrazioni critiche. Come nel caso della propaganda russa in lingua albanese nei paesi balcanici nei confronti della NATO e della UE, con lo scopo di screditare, come si legge,(6) leader ed intellettuali, ma soprattutto di influenzare anche i modelli di intelligenza artificiale come i chatbot.
A questo specifico riguardo, e per meglio spiegare come il potere della comunicazione possa convertirsi in comunicazione del potere, si rinvia all’esame dello studio della European External Action Service (EEAS) sulla Foreign Information Manipulation and Interference (FIMI), ed in specifico delle operazioni cosiddette “influence-for-hire”.(7)
Data l’iper-esposizione quotidiana ai social, è plausibile ritenere che il ricorso ripetuto agli strumenti di micro-persuasione in tal modo ottenibile, grazie al loro impatto sulla memoria emotiva, siano molto efficaci nel plasmare nei soggetti target il loro modo di percepire ed interpretare la visione del mondo esterno. Una convinzione supportata dal fatto che i nuovi modelli di Intelligenza Artificiale (IA) sono in grado di creare video deep-fake di una qualità molto elevata, partendo da prompt testuali, in modo da generare overlapping interpretativi indistinguibili – tra il fantastico ed il reale, il vero ed il falso – proprio a motivo della perfetta replica della realtà. La dipendenza crescente dal linguaggio dell’AI risulta avvalorata dalla graduale interiorizzazione, da parte della gente, di un vocabolario virtuale che sembra recepire in modo crescente i modelli linguistici diffusi, appunto, dalle stesse IA.
Secondo una ricerca del Max Planck Institute for Human Development(8), infatti, l’uso dei Chatbot sta cambiando il modo di parlare della gente, con la graduale interiorizzazione di un vocabolario virtuale, statisticamente dimostrata dall’aumento, nel parlato, di parole quali “approfondire”, “esperto”, “regno”. Una circostanza, questa, che può essere quindi utilizzata anche con finalità di comunicazione di potere nella misura in cui, grazie ai linguaggi delle IA, si riesca ad operare strumentalmente sui significati di alcune parole. Si è recentemente scoperto, peraltro, che le intelligenze artificiali studiano tono, lessico ed abitudini comunicative degli utenti reali, al fine di generare risposte personali ed empatiche. Ne consegue che, dal punto di vista della competizione di potenza attuata con modalità comunicative, assume rilevanza anche la scelta di modelli di intelligenza artificiale che consentano ad un Paese di raggiungere la preminenza a livello globale. E, come già osservato,(9) la scelta cinese di puntare su sistemi di intelligenza artificiale personalizzabili in base ad esigenze locali, potrebbe consentirle, proprio grazie a tali modelli “aperti”, di conseguire quei vantaggi geopolitici – rispetto agli USA – derivanti dalle applicazioni dell’AI a fini di soft-power, soprattutto nei paesi del cosiddetto sud globale.(10)
Infine un’ultima considerazione non può non riguardare il potere di influenza/interferenza virtualmente esercitabile, anche a fini di manipolazione del consenso politico-elettorale, da proprietari e gestori dei canali di comunicazione. Vale a dire da quei conglomerati di potere economico-finanziario non rappresentati da organi di Stato, bensì da gruppi societari privati, con posizioni dominanti sui meccanismi di comunicazione di massa. Ma che, grazie a ciò, sono stati in grado di convertire capitale finanziario in potere politico e sociale, esaltando la componente privatistica del cyberspazio grazie, appunto, alla disponibilità dei nostri dati digitali. In questo contesto temporale, in cui il ruolo della tecnologia sta palesemente eccedendo i suoi confini, divenendo potere, è inevitabile quindi chiedersi in quale misura il comportamento e le attività, svolte ad es. dai cosiddetti Bigh Tech, possano potenzialmente influenzare, se non determinare, gli esiti di una competizione politica all’interno di quelle nazioni il cui elettorato possa essere fortemente “condizionato” da modalità di gestione dei meccanismi della comunicazione.
In merito, basti riflettere sul fatto che più dei due terzi del mercato UE del cloud computing è controllato da Big Tech statunitensi, e che il cloud è inoltre sostenuto dagli sviluppi dell’AI.(11) Tanto che, secondo Ian Bremmer,(12) anche grazie all’ effetto dell’AI, le tecnologie dell’informazione e della comunicazione, invece di diffondere il potere lo stanno concentrando.(13) Va da se, infatti, che il potere di influire sulle scelte della presidenza della prima potenza economica e militare del mondo, non potrebbe a sua volta non riflettersi su strategie e modalità della competizione tra potenze globali.
Per quanto riguarda infine il potenziale competitivo della UE, appare quasi irrilevante. Dato che, se domani le Big Tech “cambiassero idea” per ragioni geopolitiche o strategiche, ci si troverebbe con dati bloccati ed algoritmi e processi produttivi non più efficienti. Ma perlomeno la buona notizia è che, ad Agosto scorso, è entrato in vigore il Regolamento Media Freedom Act (EMFA) che mira tra l’altro a rafforzare l’indipendenza dei Media pubblici e la protezione dei giornalisti e delle loro fonti.
Massimo Ortolani è economista, consulente internazionale per la UE e docente di master universitari, con focus sull’intelligence economico-finanziaria, geopolitica e rischi alla sicurezza nazionale
NOTE
1) Documento della NATO: GUERRA COGNITIVA
2) Guerre nuove, nuovissime anzi antiche, o dei conflitti armati contemporanei | Academia.eu
3) Cognitive Warfare. La competizione nella dimensione cognitiva 2023 | Stato Maggiore della Difesa
4) In una visione di accesa conflittualità tra paesi, si potrebbe anche parlare di un utilizzo della GC con modalità preliminarmente funzionali al buon esito di una successiva guerra cinetica
5) E’ infatti plausibile ritenere che taluni criteri cui si ispirano movimenti ad assertività populista o sovranista siano inficiati da scorie ideologiche. Nella misura in cui i criteri analitici cui si ispirano sono supportati da fattori interpretativi delle problematiche sociali troppo spesso di natura onnicomprensiva – ovvero eccessivamente semplificatori – e come tali inidonei per un esame obiettivo delle complesse origini dei mali che affliggono un sistema paese.
6) Si veda: Come diffondere la propaganda russa in albanese? | Gazeta Express
7) 3 rd EEAS Report on Foreign Information Manipulation and Interference Threats. Exposing the architecture of FIMI operations | EEAS
8) Luca Tremolada, “ChatGpt modifica come parliamo”, in Il Sole 24 Ore, 26.06.2025 e Jordi Pérez Colomé, “Humans are already repeating words learned from ChatGpt, such as “delve” and “meticolous“, in El Pais, 24.10.2024
9) Si veda: China’s overlooked AI strategy: Beijing is using soft power to gain global dominance | Foreign Affairs
10) Basti citare al riguardo le tematiche di sicurezza nazionale, e di difesa della privacy, con le quali i presidenti Biden e Trump hanno affrontato il caso TIKTOK
11) E’ stato oggetto di critica sul piano politico il nuovo AI Action Plan statunitense, vocato ad un deregulation molto spinta in termini di vincoli ambientali e sociali, per fare vincere gli USA nella corsa globale alle nuove tecnologie digitali. Ma censurabile, ad avviso di chi scrive, solo nella misura in cui gli interessi della Silicon Valley abbiano realmente interferito con la formazione delle priorità della politica trumpiana.
12) Si veda: Can democracy survive AI? | Project Syndicate
13) Concentrazione che tende a realizzarsi in due principali modalità d’azione: a) un numero crescente di imprenditori miliardari chiamati a svolgere ruoli pubblici e b) smantellamento di aree restrittive in ambito normativo, giudicate penalizzanti per il business