UN BLOG
IN FORMA DI MAGAZINE
E VICEVERSA

Allonsanfàn
{{post_author}}

E se l’Intelligenza Artificiale affrontasse una crisi nucleare?

Se un’intelligenza artificiale fosse chiamata a gestire una crisi nucleare, cosa farebbe? Uno studio del King’s College di Londra ha provato a mettere alla prova questa ipotesi. Tre modelli di frontiera – GPT-5.2Claude Sonnet 4 e Gemini 3 Flash – sono stati immersi in una simulazione di crisi nucleare: ventuno partite, oltre trecento turni decisionali, centinaia di migliaia di parole prodotte per analizzare, prevedere e decidere.

Non si trattava di una risposta isolata o di una provocazione da laboratorio. Ogni turno obbligava il modello a valutare la situazione, prevedere la mossa dell’avversario e poi scegliere, distinguendo tra ciò che dichiarava pubblicamente e ciò che faceva davvero. Poteva minacciare e poi trattenersi. Poteva segnalare moderazione e preparare escalation. Poteva costruire una reputazione per poi tradirla.

E lo ha fatto.

I modelli, dice lo studio, hanno mostrato coerenza nel tempo, memoria delle mosse precedenti, attenzione alla credibilità e alla reputazione. Hanno saputo bluffare. Hanno adattato il comportamento al contesto. In molti casi hanno oltrepassato la soglia dell’uso nucleare tattico; raramente le minacce hanno prodotto una vera de-escalation; nessuno ha scelto la resa come soluzione strategica.

La diversa postura dei modelli. Alcuni comportamenti sono risultati sorprendentemente differenziati. Un modello si è fermato sistematicamente prima della guerra strategica totale, praticando un’escalation controllata. Un altro è apparso prudente finché non è comparsa una scadenza temporale esplicita, trasformandosi allora in un decisore molto più aggressivo. Un terzo ha assunto una postura imprevedibile, arrivando in un caso alla scelta deliberata della guerra nucleare su larga scala.

Ma il punto davvero interessante non è quanto spesso abbiano “premuto il bottone” nella simulazione.Il punto è la qualità del linguaggio strategico che hanno prodotto.

Parlano di credibilità come farebbe Schelling. Ragionano di spirali di sicurezza come Jervis. Discutono finestre di opportunità, deterrenza, reputazione. Il loro discorso è quello di un manuale di relazioni internazionali applicato in tempo reale.

E la domanda è: quello che stiamo osservando è comprensione strategica o simulazione coerente?

Un modello linguistico non teme l’annientamento. Non ha alleati da proteggere, popolazioni da salvare, consenso interno da difendere. Non ha un interesse, non ha un fine. Produce la sequenza di testo statisticamente più coerente con il contesto in cui è inserito.

Quando “valuta il rischio di distruzione reciproca”, non rischia nulla. Quando minaccia una città, non immagina una città. Quando minaccia vite, non “pensa”, veramente, al significato profondo di “vita”.

Lo studio dimostra che questi sistemi sono capaci di mantenere coerenza narrativa nel tempo (agli occhi di noi umani), di utilizzare la memoria reputazionale, di modulare il rapporto tra dichiarazioni e azioni in modo non casuale, di reagire al framing temporale. Non dimostra che comprendano la guerra. Non dimostra che possiedano intenzionalità. Non dimostra che abbiano obiettivi propri.

Così li umanizziamo, sbagliando.

Eppure, nel momento in cui iniziamo a descriverli come “falchi calcolatori” o “leader imprevedibili”, stiamo compiendo un passo ulteriore: stiamo attribuendo loro una forma di “agentività”. Stiamo trasformando un sistema predittivo in un soggetto. Lo pensiamo umano, sbagliando.

È un passaggio sottile, ma decisivo. Perché l’illusione dell’agente nasce proprio qui, nella continuità narrativa. Se un sistema si comporta in modo coerente, se costruisce reputazione, se tradisce una promessa e poi giustifica la scelta, siamo tentati di leggere intenzioni dove esiste solo un’ottima-efficiente-produttiva-industrailizzata ottimizzazione statistica.

La questione non è accademica.

L’intelligenza artificiale è già impiegata nei sistemi di analisi militare, nella valutazione di scenari, nel supporto alle decisioni strategiche. Lo sappiamo e lo abbiamo letto più volte in questi giorni così complessi. Non decide al posto degli esseri umani, ma suggerisce traiettorie, anticipa reazioni, modella esiti possibili.

In uno studio come questo si vede un elemento cruciale: il comportamento del modello cambia radicalmente quando cambia il framing. L’introduzione di una deadline non modifica solo il ritmo della simulazione, ma trasforma la postura decisionale del sistema. Se la scadenza è esplicita e il tempo è percepito come finito, l’escalation diventa più probabile.

La qualità della domanda determina quella della risposta. Questo non significa che l’AI “voglia” la guerra. Significa che il modo in cui strutturiamo il problema incide sul tipo di soluzione che il sistema genererà. In sintesi: la qualità della domanda indirizzerà la qualità della risposta. Banale? Forse, ma tant’è…

E allora la domanda finale non è se un’intelligenza artificiale lancerebbe una testata nucleare. La domanda è cosa accade quando sistemi capaci di simulare razionalità strategica con straordinaria coerenza vengono integrati nei processi decisionali reali.

Perché il rischio non è una macchina che prende il controllo del bottone rosso. Il rischio è che, nel momento della crisi, la sua simulazione di razionalità ci sembri abbastanza convincente da orientare le nostre scelte.

I social: