L’intelligence dopo l’IA. La fine dell’analisi, l’avvento del dubbio

di Eugenio BilardoL’impatto dell’intelligenza artificiale sull’analisi geopolitica non consiste nell’automazione di compiti esistenti, ma in una discontinuità epistemologica che ridefinisce il significato stesso del “comprendere” le dinamiche internazionali.

Tre tesi: 1) l’IA non migliora l’analisi, bensì la dissolve e la ricompone; 2) il vantaggio competitivo si sposta dalla qualità dell’analisi alla qualità delle domande; 3) la comunità di intelligence affronta tensioni strutturali che nessuna pianificazione tecnologica può risolvere. Il saggio integra evidenze empiriche recenti e affronta le principali obiezioni all’approccio proposto.

I. Contro l’incrementalismo

La letteratura corrente tratta l’intelligenza artificiale come uno strumento da aggiungere al repertorio analitico.¹ Questa prospettiva incrementalista tradisce un fraintendimento profondo della natura di questa tecnologia.

I modelli linguistici di grandi dimensioni non sono strumenti, bensì interlocutori cognitivi con caratteristiche radicalmente diverse da quelle dell’intelligenza umana.² Possiedono un’ampiezza priva di profondità selettiva: hanno “letto” più di qualsiasi analista, ma non hanno scelto cosa approfondire. Riconoscono delle configurazioni senza possedere una teoria: identificano correlazioni invisibili agli umani, ma non sanno perché dovrebbero interessarci. Producono cioè coerenza senza nutrire alcuna convinzione.

Queste caratteristiche rendono l’IA incommensurabile rispetto all’analista umano. E l’incommensurabilità esige un ripensamento delle categorie, non un semplice adattamento delle procedure.³

II. La dissoluzione del ciclo dell’intelligence

Il ciclo tradizionale – pianificazione, raccolta, elaborazione, analisi, disseminazione – presuppone la scarsità: informazioni difficili da ottenere, costose da elaborare, che richiedono competenze rare per essere interpretate. L’IA rovescia i termini di questa equazione.

Nella concezione tradizionale i requisiti guidano la raccolta, l’elaborazione costituisce il collo di bottiglia umano, l’analisi rappresenta il cuore del valore prodotto e la disseminazione genera un prodotto finito. L’IA sovverte ciascuno di questi assunti: la raccolta precede i requisiti in un ambiente già saturo di dati, il costo marginale dell’elaborazione tende a zero, l’analisi di base diventa merce indifferenziata e la disseminazione si trasforma in un dialogo iterativo.

Il paradosso della competenza svalutata

Un analista esperto possiede reti di contatti, una comprensione culturale implicita, memoria istituzionale, intuizione affinata dall’esperienza. Gran parte di questa competenza costituisce quella che Polanyi chiama “conoscenza tacita”. L’IA è in grado di simulare in modo convincente una parte di questi elementi. Che cosa resta, allora, dell’analista? Nella migliore delle ipotesi, si trasforma in curatore di domande e validatore di risposte.

III. Tre tesi

Prima tesi: dissoluzione e ricomposizione

L’analisi tradizionale consiste nella riduzione della complessità. L’IA opera in direzione opposta: amplifica la complessità accessibile. Una singola richiesta può generare venti scenari, le rispettive critiche, contro-argomentazioni, sintesi. Ne discende che il valore non risiede più nella risposta, ma nella struttura interrogativa che la genera.

Seconda tesi: dalla qualità dell’analisi alla qualità delle domande

Quando la produzione di analisi plausibili ha un costo marginale prossimo allo zero, la scarsità evidentemente è altrove. Il nuovo vantaggio consiste pertanto nel saper formulare domande che l’avversario non pone, che l’IA non genererebbe spontaneamente o che – qualora trovassero risposta – invaliderebbero inferenze condivise. È dunque richiesta una sorta di anti-competenza: non sapere di più, ma saper dubitare meglio.¹⁰

Un esempio chiarificatore: la crisi ucraina del 2022. Mentre l’analisi convenzionale si concentrava sulla probabilità dell’invasione, la domanda decisiva era invece un’altra: “Indipendentemente dalle nostre valutazioni, quali segnali indicherebbero che Putin ha già deciso?”¹¹

Terza tesi: tensioni strutturali

L’integrazione profonda dell’IA comporta che questa diventi coautrice di fatto dei prodotti analitici, che la competenza umana si riduca alla supervisione, che la “firma analitica” si omologhi a quella di chiunque usi gli stessi modelli. D’altra parte, preservare un’analisi puramente umana implicherà un divario crescente rispetto a chi adotta l’IA senza riserve.¹² Le soluzioni “ibride” esistono, ma rappresentano equilibri instabili, soggetti a pressioni che spingono in direzioni opposte.

IV. Come sbaglia l’IA, e i tentativi di porvi rimedio

L’IA non sbaglia come sbagliano gli esseri umani. Rapporti recenti del Dipartimento per la Sicurezza Interna statunitense riconoscono la specificità di questi errori.¹³

La c.d. confabulazione coerente produce analisi internamente consistenti, perfettamente plausibili ma del tutto false.¹⁴ Le tecniche come la generazione aumentata dal recupero documentale riducono il fenomeno ma non lo eliminano: gli studi mostrano una persistenza significativa anche quando il sistema ha accesso a fonti verificate.¹⁵

L’ancoraggio al consenso fa sì che i modelli tendano a riprodurre, raffinandole, le conclusioni dominanti. L’analisi capace di anticipare le discontinuità – il cuore stesso dell’allerta strategica – risulta strutturalmente penalizzata.¹⁶ Come osserva Wohlstetter, i segnali di allarme sono sempre immersi nel “rumore”: l’IA amplifica gli uni e l’altro.¹⁷

Vi è poi il problema della falsa precisione: un’affermazione come “70% di probabilità di escalation” non significa nulla di definito, ma appare precisa.¹⁸ In questo modo, il decisore riceve un rinforzo per una preferenza cognitiva che può rivelarsi dannosa.¹⁹ A ciò si aggiunge l’asimmetria della verificabilità: le affermazioni più facili da verificare – fatti, date, nomi – sono quelle meno critiche; le più critiche – quali le valutazioni delle intenzioni e le previsioni – non sono verificabili prima che gli eventi si compiano.²⁰

V. Ridefinire la figura dell’analista

Di fatto, alcune competenze sono avviate all’obsolescenza: la capacità di sintetizzare grandi volumi di testo, la redazione di prodotti standardizzati, la conoscenza enciclopedica di un’area geografica, la traduzione e l’analisi linguistica di base. Al loro posto emergono competenze di natura diversa, quali l’epistemologia applicata, l’ingegneria della richiesta strategica, il pensiero avversariale in chiave algoritmica.

Un rischio sottovalutato è rappresentato dal pregiudizio da automazione: la tendenza, documentata anche tra gli esperti, ad accettare acriticamente i risultati prodotti dai sistemi automatizzati.²¹ I programmi di previsione geopolitica dimostrano che la cosiddetta calibrazione epistemica – in altri termini, la capacità di valutare correttamente il grado della propria incertezza – è la qualità più rara tra gli analisti.²²

Le nuove competenze richiedono percorsi formativi oggi esclusi dai canali di reclutamento tradizionali.²³ Le agenzie dovrebbero reclutare profili diversi dal consueto, riqualificare gli analisti in servizio verso competenze non contigue alle precedenti e competere con il settore privato per attrarre i talenti migliori: obiettivi questi difficilmente compatibili con i vincoli burocratici esistenti.²⁴ ²⁵

VI. Scenari geopolitici

L’IA rende accessibili agli attori non statali capacità che erano riservate agli stati.²⁶ Le conseguenze sono molteplici: una trasparenza forzata, in cui la capacità di mantenere segreti diventa più preziosa di quella di scoprirli; una proliferazione dell’attribuzione, con l’analisi forense alla portata di chiunque; una convergenza cognitiva preoccupante, perché se tutti usano gli stessi modelli le analisi tendono ad assomigliarsi e il pensiero originale diventa un vantaggio raro. Gli scenari di uso ostile comprendono la disinformazione industrializzata e la paralisi decisionale indotta, ottenuta saturando i canali con analisi plausibili ma contraddittorie.²⁷ Il fallimento dell’intelligence sarà sempre più spesso un fallimento dell’immaginazione, non della raccolta.²⁸

VII. Domande senza risposta

Sul piano epistemologico: se l’IA produce analisi indistinguibili da quelle umane, che cosa significa “comprendere”? Kuhn ci ricorda che i paradigmi non vengono falsificati, bensì semplicemente abbandonati.²⁹

Sul piano organizzativo: come si attribuisce la responsabilità degli errori quando l’analisi è assistita dall’IA? Come si preserva la diversità di pensiero se tutti usano gli stessi strumenti?³⁰

Sul piano etico: è accettabile il supporto decisionale dell’IA in contesti che comportano l’uso della forza?³¹

Sul piano strategico: l’IA favorisce chi attacca o chi si difende? E la dipendenza da modelli sviluppati da aziende private statunitensi costituisce un rischio strategico per gli alleati?³²

VIII. Ciò che non sappiamo

Non sappiamo se i modelli attuali rappresentino un punto di arrivo o una tappa verso l’intelligenza artificiale generale.³³ Non sappiamo se l’interazione prolungata con l’IA modifichi la cognizione umana in modi che ancora non comprendiamo.³⁴ L’onestà intellettuale impone di resistere alla tentazione di colmare questi vuoti con speculazioni spacciate per analisi. Secondo Tetlock, la qualità più rara e preziosa³⁵ è la calibrazione epistemica, ossia la capacità di misurare accuratamente la propria incertezza.

IX. Conclusione: l’umiltà come postura strategica

In questo lavoro abbiamo deliberatamente evitato di formulare raccomandazioni e previsioni. In un ambiente caratterizzato da un’incertezza così radicale, la pretesa di rappresentare una guida costituisce infatti il più grave errore analitico. Proponiamo piuttosto una postura: l’umiltà epistemica intesa come vantaggio competitivo. Chi accetta di non sapere – e struttura i propri processi per operare produttivamente in quella condizione – si dimostra più resiliente di chi si aggrappa a certezze che l’IA sta rendendo obsolete.

L’intelligenza artificiale non è la risposta alle sfide dell’intelligence, è la più grande di quelle sfide. E le sfide, a differenza dei problemi, non si risolvono: ci si convive, si abitano.

Note

1. Zegart (2022), cap. 1-3.

2. Floridi e Chiriatti (2020); Marcus e Davis (2019); Mitchell (2019).

3. Kuhn (1962), cap. 10.

4. Lowenthal (2020); Johnson (2010).

5. George e Bruce (2008).

6. Heuer (1999); Pherson e Heuer (2021).

7. Polanyi (1966), cap. 1; Omand (2010), cap. 4.

8. Kent (1949/1965).

9. Agrawal, Gans e Goldfarb (2018).

10. Davis (2022); Tetlock (2005).

11. Jervis (2010).

12. Horowitz (2018).

13. DHS (2024a); DHS (2024b).

14. Ji et al. (2023).

15. Lewis et al. (2020); Shuster et al. (2021).

16. Betts (1978).

17. Wohlstetter (1962).

18. Silver (2012); Tetlock e Gardner (2015).

19. Tversky e Kahneman (1974); Kahneman (2011).

20. Funtowicz e Ravetz (1993).

21. Parasuraman e Riley (1997); Skitka et al. (1999).

22. Tetlock (2005); Tetlock e Gardner (2015).

23. Scharre (2018); Horowitz (2018).

24. Tetlock e Gardner (2015).

25. Zegart (2022), cap. 7.

26. Buchanan e Miller (2017).

27. O’Neil (2016); Chesney e Citron (2019).

28. 9/11 Commission (2004); Betts (1978); Jervis (1976).

29. Kuhn (1962), cap. 10.

30. Pherson e Heuer (2021).

31. Russell (2019); Scharre (2018).

32. Horowitz (2018); Stanford HAI (2024).

33. Bostrom (2014); Marcus e Davis (2019).

34. Weizenbaum (1976); Carr (2010).

35. Tetlock (2005); Tetlock e Gardner (2015).

Bibliografia

Agrawal, A., Gans, J., e Goldfarb, A. (2018). Prediction machines: The simple economics of artificial intelligence. Harvard Business Review Press.

Betts, R. K. (1978). Analysis, war, and decision: Why intelligence failures are inevitable. World Politics, 31(1), 61-89. https://doi.org/10.2307/2009967

Browne, R. (2024). Tech firms invest in sovereign AI to cut Europe dependence on US tech. CNBC, November 14, 2024. https://www.cnbc.com/2024/11/14/tech-firms-invest-in-sovereign-ai-to-cut-europe-dependence-on-us-tech.html

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.

Buchanan, B., e Miller, T. (2017). Machine learning for policymakers. Belfer Center, Harvard Kennedy School. https://www.belfercenter.org/publication/machine-learning-policymakers

Carr, N. (2010). The shallows: What the internet is doing to our brains. W. W. Norton.

Chesney, R., e Citron, D. (2019). Deep fakes: A looming challenge. California Law Review, 107, 1753-1820. https://doi.org/10.15779/Z38RV0D15J

Chollet, F. (2019). On the measure of intelligence. arXiv:1911.01547. https://arxiv.org/abs/1911.01547

Davis, J. (2022). Strategic warning and intelligence analysis. Rowman & Littlefield.

Department of Homeland Security. (2024a). Artificial intelligence roadmap. https://www.dhs.gov/ai

Department of Homeland Security. (2024b). Roles and responsibilities framework for AI in critical infrastructure. https://www.dhs.gov/sites/default/files/2024-11/24_1114_dhs_ai-roles-and-responsibilities-framework-508.pdf

Dylan, H., e Maguire, T. J. (2024). Intelligence and the Russo-Ukrainian War: Introduction to the special issue. Intelligence and National Security, 39(3). https://doi.org/10.1080/02684527.2024.2330132

Floridi, L., e Chiriatti, M. (2020). GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 30, 681-694. https://doi.org/10.1007/s11023-020-09548-1

Funtowicz, S. O., e Ravetz, J. R. (1993). Science for the post-normal age. Futures, 25(7), 739-755. https://doi.org/10.1016/0016-3287(93)90022-L

George, R. Z., e Bruce, J. B. (cur.). (2008). Analyzing intelligence. Georgetown University Press.

Heuer, R. J. (1999). Psychology of intelligence analysis. CIA. https://www.cia.gov/resources/csi/books-monographs/psychology-of-intelligence-analysis-2/

Hong, G., Gema, A. P., Saxena, R., et al. (2024). The Hallucinations Leaderboard: An open effort to measure hallucinations in large language models. arXiv:2404.05904. https://arxiv.org/abs/2404.05904

Horowitz, M. C. (2018). AI, international competition, and the balance of power. Texas National Security Review, 1(3), 37-57. https://doi.org/10.15781/T2639KP49

Jervis, R. (1976). Perception and misperception in international politics. Princeton University Press.

Jervis, R. (2010). Why intelligence fails. Cornell University Press.

Ji, Z., et al. (2023). Survey of hallucination in NLG. ACM Computing Surveys, 55(12), 1-38. https://doi.org/10.1145/3571730

Johnson, L. K. (cur.). (2010). The Oxford handbook of national security intelligence. Oxford University Press.

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Kent, S. (1965). Strategic intelligence for American world policy. Princeton University Press.

Kuhn, T. S. (1962). The structure of scientific revolutions. University of Chicago Press.

Lewis, P., et al. (2020). Retrieval-augmented generation for knowledge-intensive NLP tasks. NeurIPS 33, 9459-9474. https://arxiv.org/abs/2005.11401

Mazzetti, M., e Barnes, J. E. (2022). The CIA thought Putin would quickly conquer Ukraine. Why did they get it so wrong? The Intercept, October 5, 2022. https://theintercept.com/2022/10/05/russia-ukraine-putin-cia/

Mühleisen, M. (2024). The geopolitics of AI and the rise of digital sovereignty. Brookings Institution. https://www.brookings.edu/articles/the-geopolitics-of-ai-and-the-rise-of-digital-sovereignty/

Lowenthal, M. M. (2020). Intelligence: From secrets to policy (8ª ed.). CQ Press.

Marcus, G., e Davis, E. (2019). Rebooting AI. Pantheon Books.

Mitchell, M. (2019). Artificial intelligence: A guide for thinking humans. FSG.

National Commission on Terrorist Attacks Upon the United States. (2004). The 9/11 Commission Report. W. W. Norton. https://www.9-11commission.gov/report/

O’Neil, C. (2016). Weapons of math destruction. Crown.

Omand, D. (2010). Securing the state. Hurst & Company.

Parasuraman, R., e Riley, V. (1997). Humans and automation. Human Factors, 39(2), 230-253. https://doi.org/10.1518/001872097778543886

Pherson, R. H., e Heuer, R. J. (2021). Structured analytic techniques for intelligence analysis (3ª ed.). CQ Press.

Polanyi, M. (1966). The tacit dimension. Doubleday.

PBS News (2022). U.S. intelligence agencies review what they got wrong on Russia’s invasion of Ukraine. June 5, 2022. https://www.pbs.org/newshour/nation/u-s-intelligence-agencies-review-what-they-got-wrong-on-russias-invasion-of-ukraine

Renda, A. (2024). Charting the geopolitics and European governance of artificial intelligence. Carnegie Endowment for International Peace. https://carnegieendowment.org/research/2024/03/charting-the-geopolitics-and-european-governance-of-artificial-intelligence

Russell, S. (2019). Human compatible. Viking.

Scharre, P. (2018). Army of none. W. W. Norton.

Shuster, K., et al. (2021). Retrieval augmentation reduces hallucination. Findings of EMNLP 2021, 3784-3803. https://aclanthology.org/2021.findings-emnlp.320/

Silver, N. (2012). The signal and the noise. Penguin.

Skitka, L. J., et al. (1999). Does automation bias decision-making? IJHCS, 51(5), 991-1006. https://doi.org/10.1006/ijhc.1999.0252

Stanford HAI. (2024). AI Index Report 2024. https://aiindex.stanford.edu/report/

Tetlock, P. E. (2005). Expert political judgment. Princeton University Press.

Tetlock, P. E., e Gardner, D. (2015). Superforecasting. Crown.

Vectara (2024). Hallucination Leaderboard. GitHub Repository. https://github.com/vectara/hallucination-leaderboard

Tversky, A., e Kahneman, D. (1974). Judgment under uncertainty. Science, 185(4157), 1124-1131. https://doi.org/10.1126/science.185.4157.1124

Weizenbaum, J. (1976). Computer power and human reason. W. H. Freeman.

Wohlstetter, R. (1962). Pearl Harbor: Warning and decision. Stanford University Press.

Zegart, A. B. (2022). Spies, lies, and algorithms. Princeton University Press.

***

Eugenio Bilardo è Generale di Brigata del Ruolo d’Onore dell’Arma dei Carabinieri in congedo; ha operato in distaccamento presso il Ministero dell’Interno in qualità di direttore della Sezione Analisi DCSA, collaborando inoltre come esperto dell’antidroga presso l’ambasciata italiana di Teheran. Per il MAECI ha operato nel settore del contrasto alla proliferazione delle armi chimiche. Collabora come docente per la Scuola di Formazione in Intelligence e Analisi Strategica dell’Istituto Germani.

Condividi questo contenuto

I commenti sono chiusi.