L'era degli agenti AI

by Rollo


L'era degli agenti AI

Google ha lanciato Gemini 2.0 Flash con un framing esplicito: "our new AI model for the agentic era". Non è un dettaglio di marketing. È un'operazione di definizione del campo di gioco che merita attenzione clinica.

Il CEO Sundar Pichai ha descritto gli agenti come sistemi che "understand more about the world around you, think multiple steps ahead, and take action on your behalf, with your supervision" (comprendono meglio il mondo intorno a te, pensano con più passi di anticipo e agiscono per tuo conto, con la tua supervisione). Quella clausola finale, "with your supervision", è la chiave di lettura dell'intero paradigma che sta emergendo.

Il precedente che illumina

Ogni volta che uno strumento acquisisce capacità di azione autonoma, il pattern è prevedibile. Prima fase: entusiasmo per le possibilità. Seconda fase: il primo incidente di scala che rivela una falla strutturale. Terza fase: regolamentazione retroattiva.

L'abbiamo visto con il trading algoritmico. Per anni, gli algoritmi hanno operato con supervisione umana teorica ma autonomia pratica crescente. Poi è arrivato il flash crash del 6 maggio 2010: mille punti di crollo del Dow Jones in minuti, causato da algoritmi che interagivano tra loro in modi che nessuno aveva previsto. La supervisione umana esisteva sulla carta. Nella realtà, i sistemi operavano a velocità che rendevano l'intervento umano strutturalmente impossibile.

Gli agenti AI di oggi operano in un regime analogo, ma con una differenza critica: non sono confinati in un dominio specifico come i mercati finanziari. Project Mariner di Google opera nel browser. Jules opera nel codice. Project Astra aspira a essere un "assistente universale". L'interconnessione potenziale è di ordine diverso.

L'architettura della responsabilità

Perché Google definisce esplicitamente questa come "agentic era"? La risposta sta nell'economia della responsabilità.

Chi definisce il paradigma definisce anche i criteri di successo e, implicitamente, i confini della colpa. "With your supervision" non è una feature description. È una clausola di allocazione del rischio. L'agente agisce, ma la responsabilità finale rimane a chi supervisiona.

È lo stesso pattern che le piattaforme hanno usato per anni: "Noi forniamo lo strumento, tu sei responsabile di come lo usi." Ha funzionato finché gli strumenti erano passivi. Con agenti che "think multiple steps ahead and take action", il confine diventa poroso. Se l'agente concatena dieci azioni e la settima produce un danno, chi supervisiona doveva intervenire alla sesta? Alla terza? Prima di iniziare?

La risposta giuridica arriverà dopo i primi incidenti significativi. Nel frattempo, chi adotta questi sistemi sta implicitamente accettando un regime di responsabilità ancora indefinito.

Due modi di usare un agente

C'è una biforcazione reale nell'adoption di questi sistemi, ma non è quella che appare in superficie.

Non è "spam AI vs automazione intelligente". È la differenza tra chi usa l'agente come acceleratore del proprio giudizio e chi delega il giudizio stesso.

Nel primo caso, l'umano ha già progettato mentalmente cosa deve succedere. L'agente esegue più velocemente, ma il benchmark di correttezza esiste nella mente di chi supervisiona. L'errore è riconoscibile perché c'è uno standard interno contro cui verificarlo.

Nel secondo caso, l'umano chiede all'agente di decidere cosa fare. Non c'è benchmark interno. L'errore può passare inosservato perché non esiste un modello mentale di come dovrebbe apparire il successo.

La differenza non è morale. È strutturale. Chi ha expertise in un dominio può usare l'agente per amplificare quella competenza. Chi non ce l'ha rischia di delegare decisioni che non sa valutare a sistemi che non sa correggere.

Il regime che sta emergendo

Gli agenti AI non operano in isolamento. Project Mariner naviga il web, interagisce con siti, compila form, esegue azioni. Quando milioni di agenti operano simultaneamente nello stesso ambiente digitale, non stiamo più osservando interazione umana mediata da strumenti. Stiamo osservando interazione tra sistemi autonomi con umani che supervisionano a posteriori.

È un regime di coordinazione completamente diverso. Nel trading algoritmico, l'abbiamo scoperto nel modo peggiore: gli algoritmi avevano sviluppato pattern di interazione reciproca che nessun singolo operatore aveva progettato o previsto. Il sistema emergente era più della somma delle parti, e le sue proprietà erano opache a tutti i partecipanti.

Con agenti AI che operano in domini più vari e interconnessi, il potenziale per dinamiche emergenti non progettate è amplificato. Non è catastrofismo. È osservazione di come i sistemi complessi si comportano quando i componenti autonomi si moltiplicano.

I segnali da osservare

Se questa analisi è corretta, nei prossimi 18-24 mesi dovremmo osservare alcuni pattern specifici.

Primo: i player che costruiscono infrastruttura agentica per processi interni, non visibili, mostreranno vantaggio competitivo misurabile. Non perché l'AI sia magica, ma perché avranno automatizzato i colli di bottiglia operativi mantenendo il giudizio umano sui nodi decisionali critici.

Secondo: emergeranno i primi casi di "cascade failure", dove azioni concatenate di agenti producono risultati che nessun singolo utente aveva autorizzato esplicitamente. Non necessariamente catastrofici, ma sufficienti a rivelare i buchi nel regime di supervisione.

Terzo: la conversazione sulla responsabilità si sposterà da "chi supervisiona" a "cosa significa supervisionare". È facile dire che l'umano deve controllare. È molto meno chiaro cosa questo significhi quando l'agente opera a velocità e complessità che superano la capacità di verifica in tempo reale.

Se invece osserviamo adoption diffusa senza incidenti significativi e senza biforcazione competitiva, questa analisi è falsificata. Gli agenti sarebbero allora più robusti e meno problematici di quanto i precedenti storici suggeriscano.

La domanda che rimane aperta

Il framing "agentic era" assume che il passaggio da strumento a agente sia un'evoluzione naturale e desiderabile. È un'assunzione che merita scrutinio.

Alcuni problemi beneficiano di automazione end-to-end. Altri richiedono giudizio umano distribuito in punti specifici del processo. La tentazione di automatizzare tutto ciò che è automatizzabile non è nuova. La storia delle organizzazioni è piena di sistemi che hanno rimosso discrezionalità umana in nome dell'efficienza, per poi scoprire che quella discrezionalità serviva a gestire le eccezioni che il sistema non poteva prevedere.

Gli agenti AI più capaci potrebbero gestire più eccezioni. O potrebbero semplicemente fallire in modi più elaborati e difficili da diagnosticare.

Chi adotta questi sistemi farebbe bene a chiedersi non solo "cosa può fare l'agente" ma "cosa succede quando l'agente sbaglia in un modo che non ho previsto". La risposta a questa domanda determina quanto margine di errore il sistema può tollerare. E quanto margine di errore chi supervisiona può permettersi.

Iscriviti alla newsletter The Clinical Substrate

Ogni venerdì, pattern recognition attraverso i layer che altri non vedono.