Quando un missile colpisce il cloud

by Rollo


Quando un missile colpisce il cloud

Ieri, 2 marzo 2026, chi gestisce operazioni digitali nel Golfo Persico si è svegliato con un problema che non era nei manuali. Due zone di disponibilità di Amazon Web Services negli Emirati Arabi fuori uso. Il data center di Bahrain con problemi di connettività. Abu Dhabi Commercial Bank che comunica l'inaccessibilità delle sue piattaforme e della app mobile. Istituzioni finanziarie in tutta la regione che segnalano disservizi. I servizi fondamentali del cloud, quelli su cui girano database, storage, macchine virtuali, che mostrano tassi di errore che AWS stessa definisce "significativi". Il ripristino richiederà, nelle parole dell'azienda, "molte ore". La causa ufficiale è chirurgica nel suo understatement: "oggetti hanno colpito il data center, generando scintille e un incendio". AWS non specifica quali oggetti. Non serve che lo faccia.

Quegli "oggetti" sono quasi certamente frammenti della ritorsione iraniana scatenata dopo che Stati Uniti e Israele hanno lanciato l'Operazione Epic Fury sabato 28 febbraio, la campagna di bombardamento che ha ucciso la Guida Suprema Ali Khamenei e decine di alti funzionari del regime. L'Iran ha risposto con ondate di missili e droni su basi americane e alleate in tutta la regione: Emirati, Qatar, Kuwait, Arabia Saudita, Bahrain. Aeroporti, porti, aree residenziali colpite. E per la prima volta nella storia, anche un data center commerciale che ospita l'infrastruttura cloud di mezza regione.

Qui la storia diventa interessante per chi sa leggere le connessioni tra sistemi che dovrebbero essere separati e invece non lo sono più.

L'operazione contro l'Iran è stata pianificata, secondo quanto riportato dal Wall Street Journal citando fonti governative, con l'assistenza di Claude, il modello di intelligenza artificiale di Anthropic. Il Comando Centrale americano ha utilizzato Claude per valutazioni di intelligence, identificazione dei bersagli e simulazione di scenari di combattimento. Fin qui niente di sorprendente: l'AI è ormai parte integrante della pianificazione militare americana e Claude era l'unico modello integrato nelle reti classificate del Pentagono, attraverso partnership con Palantir e Amazon Web Services.

Il dettaglio che trasforma questa storia da cronaca militare a caso di studio sulla complessità sistemica è la tempistica. Claude è stato usato per pianificare e supportare l'attacco all'Iran poche ore dopo che il Presidente Trump aveva ordinato a tutte le agenzie federali di cessare immediatamente l'uso della tecnologia di Anthropic, definendo l'azienda un rischio per la sicurezza nazionale. Il Segretario alla Difesa Hegseth aveva rincarato la dose designando Anthropic "supply chain risk", una classificazione normalmente riservata ad aziende collegate ad avversari stranieri. Nessuna azienda americana aveva mai ricevuto questa designazione prima.

Perché questo paradosso? Perché non è possibile rimuovere un sistema di intelligenza artificiale integrato nelle reti classificate di un esercito nello stesso modo in cui si disinstalla un'applicazione da un telefono. Gli stessi funzionari della difesa hanno riconosciuto che un ritiro tecnico completo da Claude era "operativamente impraticabile" in tempi brevi. Separare il Pentagono da Claude equivale, come ha osservato un analista, a un'operazione a cuore aperto. Per questo Trump ha concesso sei mesi di transizione, anche se la retorica pubblica parlava di cessazione "immediata".

Tiriamo il filo ancora un po' indietro e la catena causale si allunga in modo rivelatore.

Lo scontro tra Anthropic e il Pentagono è esploso a febbraio, ma le radici affondano nella scoperta che Claude era stato utilizzato durante l'operazione di cattura del presidente venezuelano Nicolás Maduro a gennaio 2026. Ottantatré persone uccise, tra cui quarantasette soldati venezuelani. Quando la notizia è emersa, un dirigente di Anthropic ha contattato Palantir per chiedere se la tecnologia fosse stata impiegata nell'operazione. La risposta ha innescato una reazione a catena.

Anthropic non ha rifiutato di lavorare con il Pentagono. Ha rifiutato di togliere due clausole specifiche dal contratto: niente sorveglianza di massa sui cittadini americani e niente sistemi d'arma completamente autonomi senza un essere umano nella catena decisionale. Due limitazioni che l'azienda definisce coerenti con i valori democratici e con i limiti attuali dell'affidabilità tecnologica. Il Pentagono voleva accesso "per ogni scopo legale" senza eccezioni. L'ultima offerta contrattuale del Dipartimento della Difesa, secondo Anthropic, conteneva un linguaggio legale che avrebbe permesso di ignorare quelle garanzie a discrezione.

Dario Amodei, CEO di Anthropic, ha scritto che le minacce del Pentagono "non cambiano la nostra posizione: non possiamo in buona coscienza accedere alla loro richiesta". Emil Michael, Sottosegretario alla Difesa per la Ricerca e l'Ingegneria, ha risposto pubblicamente chiamando Amodei "un bugiardo con un complesso di Dio". In un dettaglio che cattura il disordine di quelle ore finali, mentre Hegseth pubblicava su X la designazione di supply chain risk, Michael era ancora al telefono con Anthropic per offrire un accordo riservato.

E qui il filo ci riporta all'origine. Nel luglio 2025, il Pentagono aveva firmato un contratto fino a 200 milioni di dollari con diverse aziende AI tra cui Anthropic, OpenAI, Google e xAI. Ma Claude era finito in una posizione unica: l'unico modello approvato per operare in ambienti classificati. L'integrazione era profonda, attraverso i sistemi di Palantir e il cloud top secret di AWS. Un contratto che all'epoca sembrava un normale appalto tecnologico aveva creato, senza che nessuno lo pianificasse, una dipendenza strutturale che nel giro di otto mesi sarebbe diventata impossibile da sciogliere nel momento in cui serviva di più.

Guardata dall'alto, la sequenza ha la struttura classica di un cigno nero: un evento che a posteriori sembra ovvio ma che nessuno degli attori avrebbe potuto prevedere perché ciascuno operava all'interno del proprio silo decisionale.

Il Pentagono firma un contratto con un'azienda AI nel 2025 e la integra nelle reti classificate: decisione razionale per modernizzare le operazioni. Anthropic mantiene clausole etiche nel contratto: decisione coerente con la propria mission aziendale. Trump usa la disputa come leva politica e banna Anthropic: decisione coerente con la sua retorica anti-tech progressista. Il Pentagono non riesce a rimuovere Claude in tempo prima dell'operazione in Iran: conseguenza inevitabile della profondità dell'integrazione. L'Iran reagisce colpendo basi e infrastrutture nella regione: risposta militare prevedibile. Un missile o drone colpisce un data center AWS negli Emirati: conseguenza della prossimità fisica tra infrastruttura militare americana e infrastruttura cloud civile nella stessa regione.

Ogni decisione è perfettamente razionale nel proprio contesto. Il risultato complessivo è un esito che nessuno ha progettato: l'intelligenza artificiale che un governo ha bandito viene usata per pianificare un attacco che genera una ritorsione che colpisce l'infrastruttura cloud su cui quell'intelligenza artificiale girava, mandando a gambe all'aria i servizi digitali di mezza regione incluse le banche.

C'è un livello di lettura ancora più profondo che merita attenzione.

L'Iran era già in una condizione di isolamento digitale senza precedenti prima che cadesse il primo missile americano. Dal gennaio 2026, il regime aveva imposto il blackout internet più severo della sua storia per reprimere le proteste popolari scoppiate a fine dicembre 2025. Novantadue milioni di cittadini tagliati fuori dalla rete. Reti mobili, messaggistica, linee fisse disabilitate; persino Starlink bloccato attraverso un'operazione massiccia di jamming GPS. Il costo economico stimato secondo NetBlocks superava i 37 milioni di dollari al giorno. Le vendite online crollate dell'ottanta per cento. La Borsa di Teheran che perdeva 450.000 punti in quattro giorni. Il governo stava costruendo quello che gli analisti chiamano "internet a due livelli": accesso globale solo per chi ha l'autorizzazione di sicurezza, intranet domestica sorvegliata per tutti gli altri. Le aziende di telecomunicazione straniere che operavano nel paese hanno cominciato a ritirarsi silenziosamente. Un esperimento di isolamento digitale totale che neanche la Cina ha mai tentato in questa forma e a questa velocità.

L'Iran si è disconnesso da solo per controllare la propria popolazione. Poi è stato bombardato con operazioni pianificate in parte dall'AI. Poi la sua ritorsione ha disconnesso pezzi dell'infrastruttura digitale degli altri. Il cerchio si chiude con una simmetria che ha qualcosa di grottesco.

Ma il punto strutturale non è l'Iran. Il punto è che il 28 febbraio 2026 ha stabilito un precedente che ridefinisce il concetto stesso di infrastruttura critica in tempo di guerra. Quando un data center commerciale che serve banche, aziende e servizi pubblici di un'intera regione viene colpito da un atto bellico, il confine tra infrastruttura militare e civile si dissolve. Non in teoria: nei fatti, nei bilanci, nelle app bancarie che non funzionano, nei servizi cloud che restituiscono errori.

Nel frattempo, OpenAI ha firmato il suo accordo col Pentagono nel giro di ore dal ban di Anthropic. Sam Altman ha dichiarato che il contratto contiene le stesse due limitazioni che Anthropic chiedeva, sorveglianza di massa e armi autonome, ma con una formulazione diversa. Il Pentagono può usare l'AI "per tutti gli scopi legali" e le garanzie sono incorporate nell'architettura tecnica piuttosto che nel testo contrattuale. È una distinzione sottile che potrebbe significare tutto o niente, ma che ha permesso a entrambe le parti di dichiarare vittoria. Il cinismo con cui l'intero sistema ha continuato a girare, cambiando semplicemente fornitore senza risolvere nessuna delle questioni strutturali, è forse il dettaglio più rivelatore di tutti.

La domanda che nessuno dei decisori coinvolti in questa catena si è posto è semplice nella formulazione e vertiginosa nelle implicazioni: quanto è fragile un sistema in cui lo stesso cloud ospita l'intelligenza artificiale militare e i servizi bancari civili? In cui la stessa regione geografica che serve da base operativa per attacchi militari ospita i data center da cui dipende l'economia digitale di mezzo Medio Oriente? In cui un contratto tecnologico firmato in luglio diventa una dipendenza irremovibile in febbraio?

Sono domande che richiederebbero una mappa delle interdipendenze tra sistemi militari, infrastruttura cloud e economia digitale regionale. Quella mappa non esiste. Nessuno l'ha mai disegnata perché i generali non pensano ai data center, gli ingegneri cloud non pensano alle traiettorie missilistiche e i CEO delle tech company non pensano alle catene di ritorsione geopolitica. Ognuno ottimizza il proprio silo. Il sistema complessivo accumula fragilità che diventano visibili solo quando si rompono.

La lezione di questa settimana non riguarda Anthropic o il Pentagono o l'Iran. Riguarda il tipo di mondo che abbiamo costruito senza rendercene conto: un mondo in cui i sistemi sono accoppiati così strettamente che una disputa contrattuale tra un'azienda di San Francisco e un dipartimento di Washington può propagarsi, attraverso una catena di decisioni ciascuna razionale nel proprio ambito, fino a mandare offline i servizi bancari di Abu Dhabi.

Chi gestisce decisioni strategiche in questo tipo di complessità non ha bisogno di previsioni. Ha bisogno di una mappa delle fragilità. E il primo passo per costruirla è smettere di pensare che i sistemi in cui operiamo siano separati solo perché li abbiamo disegnati su organigrammi diversi.

Iscriviti alla newsletter The Clinical Substrate

Ogni venerdì, pattern recognition attraverso i layer che altri non vedono.