di Massimo Ortolani
La manipolazione di natura cognitiva rappresenta notoriamente una delle più formidabili armi oggi utilizzabili nella guerra ibrida, in quanto l’impatto della veicolazione di messaggi subdolamente misinformativi e disinformativi (MeD), nella misura in cui viene percepito come eccessivamente rischioso o minaccioso per una fisiologica competizione tra Stati, porta alla trasformazione della cosiddetta Gray Zone(1) in un’area weaponizzata. Ancorchè tali messaggi siano il frutto di confezionamenti mediatici che non facilmente consentono di risalire all’identità dei relativi mandanti. La circolazione di questo tipo di informazioni in rete è inoltre uno strumento chirurgicamente mirato a minare specifiche formazioni del consenso/dissenso politico rispetto ad altri, anch’essi tipici della Gray Zone, quali, in primis il softpower, e in particolare quello rappresentato dai videogames, formidabilmente capace di creare e veicolare risentimenti sociali verso obiettivi politici, ma senza dimenticare inoltre l’arma normativa della guerra economica, gli attacchi cyber e le varie forme di sabotaggio.
Attualmente, la percezione della portata dei MeD sul piano geopolitico è così elevata che nel Global Risks Report del World Economic Forum(2) il rischio di disinformazione e misinformazione è citato al quarto posto tra i 10 rischi globali censiti, e risulta invece al primo posto tra quelli con manifestazione impattante nel breve termine (due anni). Specifiche investigazioni sulla insidiosità dei MeD sono inoltre presentate da piattaforme quali The Global Disinformation Index o National Endowment for Democracy, in particolare per quanto concerne la protezione degli spazi informativi.(3)
Le modalità di manifestazione
Affinchè il messaggio veicolabile con la diffusione goccia a goccia delle informazioni sui media possa generare l’impatto desiderato, la strategia è quella di affinarne i contenuti, caratterizzandoli in relazione alle modalità con le quali singoli soggetti, o gruppi individuati/profilati come target, procedono alla loro elaborazione/metabolizzazione conoscitiva. E comunque sfruttando algoritmi che amplificano tutto ciò che colpisce l’immaginazione, l’emotività o la paura. I contributi scientifici cui fare riferimento nell’analisi dei processi, in base ai quali ottenere il risultato della persuasione di nuovi paradigmi interpretativi emergenti, e del conseguente spostamento di opinione politica, attingono a svariate fonti: dai ritrovati della guerra psicologica (psywar) a quelli della neuro-politica.
Una disciplina ibrida, quest’ultima, focalizzata primariamente sul comportamento del policy maker, e sulle sue decisioni, sulla base dei dettami delle neuroscienze che studiano il funzionamento del cervello. Trattasi di contributi che vanno comunque valutati con la cautela imposta dal confronto con materie di elevata complessità interpretativa. Complessità rinvenibile ad es. nell’approccio della psicologia politica(4), che utilizza concetti desunti da una vasta gamma di altre discipline, tra cui: antropologia, sociologia, relazioni internazionali, ecc(5). Pur tenendo conto delle precauzioni intellettive con le quali affidarsi agli studi della neuropolitica(6), va a tale approccio ascritto il beneficio di poter contribuire all’approfondimento delle analisi di natura geopolitica anche con una visione antropica, e di proporre quindi investigazioni incentrate primariamente sulla personalità del policy maker, sulla capacità di leadership esercitata ed esercitabile, sulla eventuale influenza/dipendenza su di esso dagli spin doctor di cui si fida, sui fattori ideologici o sentimental-patriottici che lo animino, in quanto influenti nel calcolo della razionalità richiesta per l’ideazione di strategie geopolitiche.
Si considerino al riguardo gli impatti cognitivi riconducibili all’associazione tra argomenti prescelti per la narrazione, e gergo e stile narrativo di leader politici di alcune grandi potenze.
Quanto sopra tenendo comunque presente che fenomeni a vario titolo di disinformazione/misinformazione non vanno naturalmente ascritti alle sole azioni informative malevole con focus operativo su di un paese o gruppo di opinionisti target, e condotte da parte di agenti operanti per conto di nazioni estere geopoliticamente rivali od ostili, ma anche a quelle realizzate da parte di governi nazionali – o di coalizioni di partiti candidati a governare – animati da aspirazioni demagogiche, ancorchè non necessariamente autocratiche. In relazione, ad esempio, a quelle azioni convenzionalmente ricadenti nell’alveo della propaganda politica, non si può non accennare agli effetti della sottile mistificazione con la quale questi soggetti cercano di affermare visioni del passato del loro stesso paese più “oscurantiste” di quanto platealmente percepibile, al solo scopo di contrapporvi la loro alternativa come “salvifica”.
In un periodo preelettorale le mire politiche sottostanti possono infatti tendere anche a provocare una possibile alterazione della realtà documentabile, grazie all’impatto di reazioni emotive, o di istanze patriottiche o vittimistiche, capaci comunque di confondere, nella mente degli elettori, la mappa delle priorità, da attribuire ad esempio ai valori umani, rispetto ad interessi economici specifici.(7) Inoltre, sono già stati analizzati da varie ricerche di psicologia politica(8) gli assunti del cognitivismo, che spiegano come il comportamento nel voto elettorale sia fondamentalmente frutto di processi di conoscenza, che maturano in flussi di coesistenza tra riflessione ed emozione. E al cui operato concorrono sia le rappresentazioni mentali depositatesi nel corso del tempo, con il precognito e la formazione culturale, sia le modalità di elaborazione quotidiana della conoscenza in ambito sociale, intese in termini di information-processing e di relativo impatto emotivo. L’obiettivo MeD, a tale fine connesso, sul piano della psicologia della cognizione è raggiungibile anche grazie al poter limitare, tra gli altri, gli effetti del bias cosiddetto di “overconfidence”, relativo alla eccessiva sicurezza in ciò in cui si è creduto per lungo tempo, e ad alimentare – per converso – il sempre più diffuso bias di “temporal proximity”, che spinge ad attribuire maggiore importanza agli eventi recenti, o a basarsi sulle prime informazioni reperite. In tal senso la semplificazione del linguaggio delle fake news sui social facilita la strumentalizzazione politica del loro contenuto ai fini della successiva radicalizzazione dell’opinione. Obiettivo quest’ultimo tentativamente raggiungibile, secondo tale approccio analitico, ricorrendo a messaggi propagandistici affidati ad una narrazione accattivante – se non messianica – che favoriscono la ripetuta concentrazione emotiva(9) su processi/eventi/fenomeni che, per colpire emotivamente, devono qualificarsi come iconici (ad. es. insicurezza, inflazione su prodotti di consumo quotidiano, e soprattutto immigrazione, ecc.); da soli in grado di monopolizzare il giudizio personale, che dovrebbe invece risultare sempre frutto di una valutazione politica il più possibile olistica, e capace di evitare forme di scollamento tra economia e sentiment, così come risentimenti in grado di prevalere sempre sulle ragioni del portafoglio.
Da questo punto di vista la caratterizzazione dell’information processing spiega la rilevanza anche di azioni ad impatto cognitivo assimilabile a quello che potremmo ragionevolmente definire più precisamente come “misinformazione per incompletezza”, piuttosto che come mix di vero e di falso. E rinvenibile in slogan o proclamazioni di natura propagandistica – talora presente in programmi politici a spiccata vocazione populista e anti-establishment – che propongono programmi di politica sociale ad impatto positivo sul benessere economico nell’immediato,(10) ma certamente negativo nel medio-termine; e però difficile da indagare/esplicitare in termini tecnici a potenziali elettori ormai abituati al solo linguaggio semplificato dei social, quasi binario quando si limita alle definizioni di giusto, sbagliato(11). Da quanto sopra indicato, è curioso osservare che le tre principali forme di disinformazione/disinformazione rispecchiano, per analogia, i contenuti della formula del giuramento che veniva richiesta ai testimoni nei tribunali americani: dire la verità, tutta la verità, niente altro che la verità.
Infine gli obiettivi della manipolazione non si esauriscono con quelli di natura pre-elettorale, raggiunti quando l’impatto informativo ha contribuito a spostare “sufficientemente” le preferenze dei votanti verso la coalizione politica gradita al manipolante, ma anche nel post-elettorale, quando l’obiettivo diviene evitare/allontanare nel tempo l’approvazione di specifiche misure politiche sgradite, ancorchè lungimiranti, rendendole – nelle indagini dei sondaggisti – difficili da condividere da parte di una platea di intervistati costretti ad una selezione di contenuti mediatici entro una cronaca politica quotidiana offuscata ed immersiva come quella attuale. Con l’obiettivo di rendere ancor più difficile il raggiungimento dei compromessi politici necessari alla sopravvivenza delle stesse coalizioni al governo.
Quali difese dalla manipolazione informativa
Tornando alla Gray Zone ed alla guerra ibrida va detto che, nonostante la complessità intrinseca dei MeD e del loro disvelamento, vengono oggi contrastati da una significativa limitazione operativa sul piano istituzionale, ancorchè non ancora massiva(12). Nonostante gli obiettivi sfumati ed il manto di innocuità di tali forme di manipolazione cognitiva, esse non stanno infatti sfuggendo all’occhiuto controllo di policy maker nazionali – e anche sovranazionali – coinvolti in una produzione normativa di carattere oppositivo e difensivo dai connessi impatti socio-economici e politici dei MeD, e mirante a fare emergere il contenuto di infrazione di natura legale ad essi riconducibili. Basti ricordare il kit(13) di strumenti recentemente sviluppato dalla UE ai sensi del Digital Services Act, che mira a fornire un concreto contributo all’impegno dell’intera società per proteggere “ex ante” l’integrità dei processi elettorali nell’Unione Europea, e con l’obiettivo ultimo di proteggere i diritti fondamentali dei cittadini dell’UE, in particolare la libertà di espressione e di informazione, il diritto di voto e il diritto di eleggibilità.(14)
Inoltre, a seguito dell’irrompere dell’Intelligenza Artificiale e dell’amplificato impatto manipolativo cui può dare luogo con anonimato e deepfake, il legislatore comunitario ha legiferato anche con l’AI ACT (Reg UE 2024/1689). Che, all’art 5, dispone che sono vietati sistemi di AI che utilizzano tecniche che agiscono subliminalmente, quindi senza che una persona sia consapevole, come anche tecniche manipolative o ingannevoli al fine di distorcere il comportamento di una persona o per interferire in processi democratici. La risposta di molte piattaforme di rete, anche per motivi connessi agli eventuali costi reputazionali riconducibili all’opinione di apparire veicoli della disinformazione, è stata quella di dotarsi di specifiche sezioni operative del loro staff con mission dedicata alla moderazione/rimozione dei contenuti, a valere sull’operato dei loro algoritmi fortemente incentrati sull’indicatore della plausibilità statistica. Ma, con l’entrata in vigore del Digital Services Act (Sez III di tale Regolamento) le grandi piattaforme hanno dovuto a tal fine affidarsi anche a quelli dei cosiddetti Trusted Flaggers certificati, entità individuati e qualificate come tali dal Coordinatore dei servizi digitali di ciascuno Stato membro. Per quanto i Trusted Flaggers possano verosimilmente ricorrere ad indicatori più estesi di quelli delle piattaforme, come ad es. quello della dimostrabilità per intuizione, a parere di chi scrive il loro compito nel campo della rimozione di “contenuti illeciti” afferenti la manipolazione subliminale appare certamente molto più complesso di quello richiesto per individuare i soli contenuti esplicitamente incitanti all’odio od al terrorismo.(15)
Ma, se le info in rete operano a livello globale, evidenti discrasie normative si stanno manifestando tra le due sponde dell’Atlantico. Da quanto si apprende sui media,infatti(16) il proprietario della piattaforma Meta, presumibilmente molto sensibile a forme di censura legale, si è recentemente espresso in favore di una maggiore libertà di espressione, ottenibile anche abbandonando il proprio sistema di fact checking certificati, e sostituendolo con quello delle Community Notes degli utenti. Trattasi di un atto che sottende una evidente rottura culturale sul piano politico, visto che i fact-checker sono stati definiti dallo stesso come troppo schierati politicamente. Decisione quindi che, sul piano del contrasto alla manipolazione, appare comunque controversa; dato che affidare al trionfo dell’opinabilità e dell’opinionismo dei commenti e contro-commenti degli utenti il verdetto sulla veridicità di una notizia, può al contrario generare maggiore frammentazione e confusione concettuale. Anche se riesce sicuramente nell’obiettivo di trattenere maggiormente legati alla piattaforma gli utenti, con i benefici che ne conseguono.
Vi è inoltre la combinazione delle potenzialità dell’AI con quella di algoritmi in grado di riconoscere gli argomenti più importanti in ogni momento della giornata, oggi a disposizione di leader governativi, che operante in un governo rivale consente quasi in tempo reale di efficientare il tuning sia di numero che di qualità dei messaggi di informazione/manipolazione, per massimizzare l’effetto politico delle esternazioni di questi leader. All’insegna di una ormai consolidantesi tech driven politics, si pone allora un problema aggiuntivo. Quello di evitare che il policy maker non venga influenzato/catturato dal gestore/ideatore dall’algoritmo, qualora non potesse avere sufficiente capacità di reazione critica nel distinguere l’interesse nazionale da quello del privato gestore dell’algoritmo(17).
In Italia, infine, la delicata tematica delle implicazioni delle svariate forme di manipolazione con finalità geopolitica dovrebbe potersi basare primariamente sull’operato dell’élite dei fact-checkers di info open source attivi nell’ambito dei servizi di informazioni per la sicurezza. E ciò anche in vista di una rimodulazione operativa delle modalità della loro attività, che ne consenta la collaborazione con le università nell’applicazione di supporti tecnico-investigativi, come ad es. nell’interpretazione di narrazioni giornalistiche di subdola pericolosità per la sicurezza nazionale. (18)
Anche se, per contrastare in forma strutturale la valenza della manipolazione online, ruolo primario dovrebbe essere affidato anche alla scuola. E oggi si potrebbe puntare proprio sui previsti corsi di anti brain-rot nelle scuole per ampliare la portata didattica delle soluzioni da proporre per disincentivare negli alunni l’eccesso di dipendenza dai social, fornendo ai docenti strumenti metodologici che li aiutino nel far crescere negli allievi spirito critico di selezione e verifica.
Massimo Ortolani è economista, consulente internazionale per la UE e docente di master universitari, con focus sull’intelligence economico-finanziaria, geopolitica e rischi alla sicurezza nazionale.
NOTE
(1) In merito alla nozione di Gray Zone: Zona grigia e anche Guerra ibrida, la miglior difesa è l’educazione. Ecco perché – Formiche.net – Ma va anche tenuto presente che, oggi, la guerra cognitiva per il controllo delle menti dei soldati è stato uno degli argomenti affrontati ai Military Talks di Parigi lo scorso 10 Febbraio, assieme a quello di come formarli non più solo alla resistenza fisica ma, appunto, anche a quella cognitiva
(2) Global Risks Report 2025 | World Economic Forum
(3) The Global Disinformation Index e Informazioni sul National Endowment for Democracy – NATIONAL ENDOWMENT FOR DEMOCRACY
(4) Come ad esempio la relazione bidirezionale che sta alla base delle indagini della cosiddetta psicologia politica, in cui la psicologia viene utilizzata come strumento per comprendere la politica, e la politica utilizzata come mezzo per comprendere la psicologia.
(5) Mentre, per il passato, non vanno trascurati gli esiti dei programmi di ricerca sul funzionamento della mente, finanziati sia dagli americani che dai sovietici, ai tempi della guerra fredda. Ma che oggi, ovviamente, oggi scontano gli effetti del cambiamenti sociali e culturali sulle risposte mentali. Ved. Emanuel Pietrobon: Dossier-42-Guerra-cognitiva.pdf – Centro Studi Politici e Strategici Machiavelli.
(7) Sul piano macroeconomico basti citare l’effetto del martellamento informativo – grazie ai social – capace di generare adesione sociale ad azioni di politica economica di rilievo strategico: si consideri la maggioranza che in UK si è dichiarata favorevole alla Brexit, per poi pentirsene in gran parte. Ovvero le narrazioni governative con le quali, in autocrazie in guerra – colpite da pesanti sanzioni internazionali – e quindi soggette a significativi impatti in termini di inflazione e scarsità di prodotti, si riesce ad incentivare la diffusa convinzione tra la gente comune che tali fenomeni sono solo frutto del mercato e dell’andamento dell’economia.
(8) Psicologia politica: le basi cognitive delle scelte di voto – State of Mind , ved. anche: Andrea Lavazza: Neuroetica e Neuropolitica www.researchgate.net Inoltre, Pag 45 – Rivista ECO – n. 7 /2024: “E’ plausibile che attraverso il voto si dia sfogo a emozioni come la delusione per aspettative disattese o la rabbia per una situazione ritenuta ingiusta”-
(9) Molto nota la fake news sul politico tedesco Olaf Scholz, che sarebbe stato proprietario di una villa da 90 milioni ad Hollywood, prima che il rogo di Los Angeles la incenerisse. Un tipico esempio di fake news molto difficile da smascherare, se diffuso nell’imminenza di elezioni.
(10) Va in proposito tenuto presente che, purtroppo, l’humus informativo che genera l’effetto eco della manipolazione non comprende solo le vere fake news sfuggite al controllo, o non ritenute tali, influendovi anche le notizie fuorvianti connesse ad interpretazioni erronee di fatti e la diffusione in buona fede di materiale inesatto. Da tenere infine presente che i contenuti fake vengono scritti o divulgati con linguaggio ed immagini tali da essere rese il più possibile comprensibili al considerevole numero di analfabeti “funzionali” presente, ad esempio, in un paese come il nostro.
(11) Peraltro, non è il solo martellamento sui social da tenere presente al riguardo. A contribuire alla formazione di opinioni geopoliticamente allineate a quelle propiziate da certi Stati, o gruppi di Stati, possono concorrere non solo gli strumenti mediatico-culturali tipici del softpower, come già detto, ma anche la diffusione in rete di visioni geostrategiche delle relazioni internazionali di supporto all’assetto valoriale di taluni Stati rispetto ad altri. Di rilievo al riguardo le sintesi giornalistiche di ricerche, prodotte da taluni Think Tanks potenzialmente sospettabili di trasparenza su tematiche fortemente divisive nell’opinione pubblica.
(12) E, però, anche il contrasto delle fake news plateali trova limiti intrinseci, in quanto non va sempre e comunque attuato con azioni simmetriche anti-falsità in quei casi in cui, se il soggetto target è un personaggio ad esposizione politica, la confutazione mediatica produrrebbe solo il risultato di amplificarne l’eco, e di ingenerare comunque dubbi sulla reputazione del target.
(14) Sul piano della sicurezza nazionale statunitense merita aggiungere che la Corte Suprema si è appellata al Protecting Americas from Foreign Adversary Controlled Applications Act del 2024, per tentare di bloccare la subliminale minaccia riconducibile alla piattaforma TikTok. Prima della sospensione operata da Trump con l’intento di imbrigliare/fare conoscere il funzionamento dei suoi algoritmi agli eventuali nuovi partner statunitensi. Mentre l’apparizione di DeepSeek, il large language model cinese disponibile in open source, ha spinto due parlamentari Usa a proporre una legge che lo bandisca, nel timore che l’app installata su smartphone e tablet serva a fornire informazioni sugli utenti al governo cinese. Ved: Dopo Huawei e TikTok, è DeepSeek la nuova minaccia per la sicurezza nazionale Usa? – Formiche.net
(15) Questo il sito di un Trusted Flagger certificato greco: Politica – Verifica dei fatti sulla Grecia
(16) Perché Zuckerberg cancella i fact checker e cos’è il sistema community notes
(17) Su tale aspetto si veda l’articolo: “I messaggi di Trump e la bussola dei big data” a firma di Luca de Biase – IlSole24Ore del 26/02/2025
(18) L’intervento del Sottosegretario Mantovano all’evento “Le culture dell’intelligence economica nell’infosfera” | www.governo.it “Ho qualche dubbio, spero condiviso, sull’innocenza degli speculatori: senza escludere che dietro alcune manovre speculative si celano interessi non puramente economico-finanziari, per es. quello di contrastare alcune azioni di governo non gradite. Il problema è però che queste “cattive notizie”, di cui gli speculatori sarebbero meri messaggeri, a volte non sono tali oggettivamente: costituiscono narrazioni (grassetto di redazione) con cui vengono rappresentate, appunto, nell’ “infosfera”.