Quattro lettere e un caccia militare

by Rollo


Quattro lettere e un caccia militare

L'8 febbraio 2026, un Airbus A321 della Wizz Air in rotta da Londra Luton a Tel Aviv è stato scortato da caccia militari israeliani sopra il Mediterraneo. A bordo c'erano circa 220 passeggeri, sette membri dell'equipaggio e una minaccia terroristica che non esisteva. La fonte dell'allarme era il telefono di un genitore distratto, ribattezzato da un bambino con una sola parola in arabo e in ebraico: "terrorista".

Tre settimane prima, il 15 gennaio, un volo Turkish Airlines Istanbul-Barcellona aveva subito lo stesso destino. Un passeggero aveva rinominato il proprio hotspot con una frase più elaborata, "ho una bomba, moriremo tutti" e la risposta era stata identica nella forma: codice di emergenza, caccia NATO in posizione, atterraggio isolato, squadre antibomba, 148 persone ferme su una pista mentre i cani annusavano i bagagli.

Nessuna bomba. Nessun terrorista. Solo due menu Wi-Fi.

Vale la pena fermarsi qui perché la storia facile da raccontare è quella sbagliata. La storia facile è quella del bambino stupido, del passeggero irresponsabile, della bufala che ha sprecato risorse militari. Quella storia esiste ed è vera ma non è interessante. La storia interessante è un'altra: i sistemi di sicurezza hanno funzionato esattamente come dovevano. Non c'è stato un errore ed il problema è precisamente questo.

I protocolli di sicurezza aerea sono progettati per rispondere alla forma del segnale, non alla sua sostanza. Non possono fare altrimenti. Quando un sistema deve decidere in pochi secondi se un oggetto volante a 10.000 metri rappresenta una minaccia, non ha il tempo né gli strumenti per interrogare le intenzioni di chi ha digitato quelle quattro lettere. Ha solo la forma: una parola associata al terrore, trasmessa su frequenze rilevabili, su un volo diretto verso uno degli spazi aerei più sorvegliati del mondo. La risposta è automatica. Deve esserlo.

Il paradosso che i due episodi rivelano è sottile ma strutturale: più un sistema di sicurezza diventa robusto e reattivo, più diventa vulnerabile a qualsiasi input che abbia la forma corretta della minaccia. Non serve una minaccia reale. Basta una rappresentazione sufficientemente convincente. E nel 2026, la rappresentazione più convincente di una minaccia è costata meno di trenta secondi di attenzione a un bambino annoiato durante un volo di quattro ore.

C'è un concetto in teoria dei sistemi che descrive questo meccanismo: il costo dell'attivazione falsa. Ogni sistema di allerta deve calibrare la propria soglia di risposta su un continuum tra due tipi di errore. Se la soglia è troppo alta, il sistema non rileva le minacce reali. Se è troppo bassa, reagisce ai fantasmi. L'aviazione, dopo l'11 settembre, ha spostato la propria soglia molto vicino allo zero. La conseguenza logica è che tutto ciò che assomiglia a una minaccia diventa una minaccia fino a prova contraria. Il sistema non distingue perché non può distinguere: la verifica richiede tempo e risorse che nella gestione di una crisi in quota non sono disponibili.

Quello che rende questi episodi degni di attenzione non è la loro stranezza ma la loro inevitabilità. Ogni passeggero con uno smartphone ha accesso a una superficie di attacco che non esisteva dieci anni fa. Il nome di un hotspot è visibile a chiunque cerchi una connessione nel raggio di qualche metro. È trasmesso in chiaro, senza autenticazione, senza filtri. Le compagnie aeree stanno ora discutendo di sistemi per filtrare automaticamente i nomi di rete minacciosi, ma si tratta di una rincorsa che ha la struttura di un labirinto senza uscita: ogni filtro può essere aggirato con una variazione, una traslitterazione, una metafora abbastanza trasparente.

Il caso del bambino sul volo Wizz Air aggiunge un ulteriore strato che vale la pena considerare. Non si tratta di un atto deliberato, di qualcuno che voleva vedere cosa sarebbe successo. Si tratta di un bambino che probabilmente non aveva la minima comprensione delle conseguenze di quei caratteri su uno schermo. Il gap tra l'azione, quattro tocchi su un telefono, e l'effetto, due caccia militari e un aeroporto paralizzato, è così vasto da sfidare qualsiasi intuizione ordinaria. Siamo abituati a un mondo in cui le azioni hanno conseguenze proporzionate. Questo mondo non esiste più ovunque allo stesso modo.

L'ereditarietà storica di questo tipo di incidenti è più lunga di quanto sembri. Nel maggio 2022, sempre a Tel Aviv, un volo era stato bloccato sulla pista dopo che i passeggeri avevano ricevuto via AirDrop immagini di aerei in caduta. Prima ancora, i social network avevano già dimostrato che una voce sufficientemente ben confezionata può attivare risposte istituzionali sproporzionate rispetto alla sua origine. Il segnale digitale ha imparato a imitare le crisi reali con una fedeltà crescente e un costo decrescente.

Ciò che rimane dopo i due episodi di gennaio e febbraio non è una morale sull'irresponsabilità dei passeggeri. È una domanda strutturale che i progettisti di sistemi di sicurezza stanno già cercando di rispondere: come si costruisce un sistema capace di distinguere il segnale dal rumore quando il rumore ha imparato a parlare la stessa lingua del segnale? La risposta non è tecnica, almeno non solo. È epistemica. Richiede di decidere quanta incertezza un sistema può tollerare prima di rispondere, e quali conseguenze accettiamo come prezzo della precauzione.

Per ora, la risposta implicita dell'aviazione è: nessuna incertezza tollerata, costo della precauzione accettato. È una posizione razionale. È anche una posizione che trasforma ogni bambino annoiato con un telefono in una variabile non gestibile all'interno di un sistema altrimenti molto ben progettato.

Iscriviti alla newsletter The Clinical Substrate

Ogni venerdì, pattern recognition attraverso i layer che altri non vedono.