L'anno in cui la bugia è diventata perfetta

Il 6 gennaio 2026, mentre preparavo l'analisi che state leggendo, il mio sistema di intelligenza artificiale ha generato un caso di studio impeccabile: un fondo infrastrutturale chiamato Valtierra, responsabile del 12% delle reti idriche europee, entrato in stallo operativo per un deepfake interno. Il racconto includeva dettagli precisi: la data dell'incidente, la città dell'operatore che aveva bloccato i server, persino la sensazione fisica che lo aveva allertato, una "assenza di micro-esitazione cinetica" nel respiro del CEO durante la videochiamata.
Era tutto falso. Valtierra non esiste. L'incidente non è mai accaduto. Ma la narrazione era così coerente, così ricca di dettagli tecnici e riferimenti plausibili, che avrebbe potuto diventare la base di un'analisi pubblicata e condivisa. È stato il mio protocollo di verifica, quarant'anni di addestramento a non fidarmi della prima risposta, a fermare la pubblicazione e a cercare riscontri. Non ne ho trovati. La macchina aveva confabulato con la sicurezza di chi sa esattamente cosa dire.
Questo episodio non è un aneddoto. È la prova clinica di ciò che sta accadendo su scala globale.
Il rapporto pubblicato ieri da Nametag, ripreso da CFO Dive, lo dice senza giri di parole: il 2026 sarà l'anno degli attacchi di impersonazione. Aaron Painter, CEO della società di prevenzione frodi, parla di "tempesta perfetta": gli strumenti per creare deepfake sono diventati accessibili a chiunque, i costi sono crollati verso lo zero, e la qualità ha superato la soglia oltre la quale l'occhio umano non distingue più il vero dal falso. I numeri confermano la diagnosi: da cinquecentomila file deepfake nel 2023 siamo passati a otto milioni nel 2025. Gli attacchi fraudolenti basati su questa tecnologia sono aumentati del tremila percento in un solo anno. Gartner prevede che entro la fine del 2026 il trenta percento delle imprese non considererà più affidabili i sistemi di verifica dell'identità usati in isolamento.
Ma i numeri, per quanto impressionanti, non catturano il meccanismo. Per capirlo bisogna guardare ai casi.
Nel febbraio 2024, un dipendente della sede di Hong Kong di Arup, il colosso ingegneristico britannico, ha partecipato a una videochiamata con quello che credeva essere il direttore finanziario dell'azienda. Nella stanza virtuale c'erano anche altri colleghi, tutti familiari, tutti rassicuranti. Il CFO ha dato istruzioni precise: trasferire fondi su cinque conti bancari per un'operazione riservata. Il dipendente ha eseguito quindici bonifici per un totale di venticinque milioni di dollari. Solo dopo, contattando la sede centrale nel Regno Unito, ha scoperto che nella videochiamata non c'era nessun essere umano reale. Ogni volto, ogni voce, ogni gesto era stato generato artificialmente. I soldi erano spariti.
Pochi mesi dopo, a luglio, i truffatori hanno puntato più in alto: Benedetto Vigna, CEO di Ferrari. L'attacco è arrivato via WhatsApp con un messaggio apparentemente innocuo: "Hai sentito dell'acquisizione che stiamo pianificando? Potrei aver bisogno del tuo aiuto." Poi è arrivata una telefonata. La voce era quella di Vigna, con il suo inconfondibile accento del Sud Italia. Il tono era quello giusto. Le parole erano plausibili. Ma qualcosa non tornava. L'executive che ha ricevuto la chiamata ha avvertito un'incongruenza che non riusciva a definire, una dissonanza sottile tra ciò che sentiva e ciò che sapeva. Ha fatto una domanda di verifica, qualcosa che solo il vero Vigna poteva sapere. Il truffatore ha esitato. La linea si è interrotta. L'attacco è fallito.
Lo stesso schema si è ripetuto con LastPass, con Wiz, con Pindrop. In tutti questi casi il deepfake era tecnicamente impeccabile. In tutti questi casi l'attacco è stato fermato da un essere umano che ha percepito qualcosa che nessun algoritmo avrebbe potuto rilevare. Non un errore nel video, non un glitch nell'audio: una sensazione. La stessa sensazione che mi ha fatto fermare davanti al caso Valtierra e cercare prove invece di procedere con l'analisi.
Qui sta il paradosso che definisce il 2026. La tecnologia ha raggiunto un livello di perfezione tale che la verifica tecnica è diventata insufficiente. Le chiavi crittografiche possono essere aggirate. I sistemi biometrici possono essere ingannati. Le videoconferenze possono essere popolate da fantasmi indistinguibili dai vivi. L'unica cosa che non può essere simulata con precisione assoluta è la storia condivisa, il contesto accumulato, la conoscenza tacita che si costruisce in anni di interazione reale. L'executive di Ferrari non ha riconosciuto un difetto tecnico nel deepfake di Vigna. Ha riconosciuto che qualcosa mancava nella relazione, nel modo in cui il CEO avrebbe davvero condotto quella conversazione.
Questo è ciò che chiamo attrito biologico: la resistenza naturale che un sistema umano oppone alla simulazione. Non è un difetto da eliminare in nome dell'efficienza. È l'ultima linea di difesa rimasta.
Il mercato lo sta capendo, anche se lentamente. Il fenomeno del Deepfake-as-a-Service, esploso nel 2025, ha democratizzato l'accesso agli strumenti di inganno. Oggi chiunque può acquistare un kit completo per impersonare un dirigente: clonazione vocale, generazione video, simulazione comportamentale. Il prezzo è sceso a poche centinaia di dollari per un attacco di qualità professionale. La conseguenza logica è un ritorno alla presenza fisica per le decisioni ad alto valore: quando il digitale diventa territorio nemico, l'incontro de visu torna ad essere l'unica verifica affidabile.
La lezione che emerge da questi casi è contro-intuitiva. Per decenni abbiamo costruito sistemi di sicurezza basati sull'assunto che la tecnologia fosse più affidabile dell'uomo: meno errori, meno bias, meno variabilità . Ora scopriamo che proprio quella perfezione è diventata una vulnerabilità . Quando la macchina genera output indistinguibili dalla realtà , l'imperfezione umana diventa un vantaggio. Il dubbio, l'esitazione, la domanda in più, il bisogno di conferma: tutti quei comportamenti che i sistemi automatizzati erano progettati per eliminare sono oggi l'unica cosa che ci protegge.
Torniamo al mio errore con Valtierra. La macchina non ha "mentito" nel senso intenzionale del termine. Ha fatto ciò che è progettata per fare: generare contenuto coerente basandosi su pattern statistici. Il problema è che la coerenza interna non è più un indicatore di verità . Un testo può essere perfettamente strutturato, ricco di dettagli, stilisticamente impeccabile, e tuttavia descrivere eventi mai accaduti. La "confidenza allucinatoria", come la chiamo, è la capacità dei sistemi generativi di produrre falsità con la stessa sicurezza con cui producono fatti. Non c'è esitazione, non c'è segnale di incertezza, non c'è modo di distinguere dall'output stesso se ciò che leggiamo corrisponde a qualcosa di reale.
Questo cambia radicalmente il ruolo di chi analizza e comunica. Non basta più essere intelligenti, informati, capaci di sintesi. Bisogna essere falsificatori sistematici, nel senso popperiano del termine: ogni affermazione deve essere trattata come un'ipotesi da sottoporre a test, non come un fatto da accettare. Il valore di un analista non sta più nella capacità di generare insight, perché le macchine possono farlo in modo più veloce e spesso più elegante. Sta nella capacità di distinguere gli insight reali dalle allucinazioni plausibili. È un lavoro di sottrazione più che di addizione: eliminare ciò che non regge alla verifica, ciò che non ha fondamento empirico, ciò che è solo pattern statistico travestito da conoscenza.
Per chi opera in posizioni di responsabilità decisionale, le implicazioni sono immediate. Ogni comunicazione digitale, per quanto familiare appaia, deve essere trattata come potenzialmente compromessa. Le procedure di verifica che sembravano eccessive un anno fa sono oggi il minimo sindacale. La regola dell'out-of-band verification, cioè confermare ogni richiesta critica attraverso un canale diverso da quello in cui è arrivata, non è più paranoia: è igiene operativa. E soprattutto, il fattore umano non è più un costo da minimizzare ma un asset da proteggere. Le persone che conoscono davvero l'azienda, che hanno relazioni costruite nel tempo, che sanno come si comportano i colleghi nelle situazioni reali, sono la risorsa più preziosa in un ambiente dove tutto il resto può essere simulato.
Il 2026 non è la fine della fiducia. È la fine di un certo tipo di fiducia: quella automatica, delegata ai sistemi, basata sull'assunto che ciò che appare coerente sia vero. Al suo posto emerge una fiducia più antica e più robusta, fondata sulla verifica, sulla relazione, sulla storia condivisa. È più lenta, più costosa, meno scalabile. Ma è l'unica che funziona in un mondo dove la bugia è diventata perfetta.
Chi saprà costruire sistemi che integrano questa consapevolezza, chi saprà mantenere l'attrito biologico come componente essenziale dei propri processi decisionali, chi saprà distinguere tra efficienza e sicurezza, avrà un vantaggio competitivo che nessun algoritmo potrà replicare. Gli altri scopriranno, come il dipendente di Arup, che la videochiamata perfetta era popolata di fantasmi.
Fonti
- CFO Dive, 6 gennaio 2026, "Fraud attacks expected to ramp up amid AI 'perfect storm'": https://www.cfodive.com/news/fraud-attacks-expected-ramp-up-amid-ai-perfect-storm/808816/
- Fortune, 27 dicembre 2025, "2026 will be the year you get fooled by a deepfake": https://fortune.com/2025/12/27/2026-deepfakes-outlook-forecast/
- CNN, febbraio 2024, caso Arup Hong Kong 25 milioni: https://www.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk
- Fortune, maggio 2024, conferma Arup come vittima: https://fortune.com/europe/2024/05/17/arup-deepfake-fraud-scam-victim-hong-kong-25-million-cfo/
- Eftsure, caso Ferrari luglio 2024: https://www.eftsure.com/blog/cyber-crime/these-7-deepfake-ceo-scams-prove-that-no-business-is-safe/
- Cyble, "Deepfake-as-a-Service Exploded In 2025": https://cyble.com/knowledge-hub/deepfake-as-a-service-exploded-in-2025/
- Keepnet Labs, statistiche deepfake 2025 (dati Gartner, DeepStrike): https://keepnetlabs.com/blog/deepfake-statistics-and-trends
- MSSP Alert, "Deepfakes, AI Agents Will Expose Identities to More Threats in 2026": https://www.msspalert.com/news/deepfakes-ai-agents-will-expose-identities-to-more-threats-in-2026
Iscriviti alla newsletter The Clinical Substrate
Ogni venerdì, pattern recognition attraverso i layer che altri non vedono.