L'agente che non sa perché
Gartner annuncia la fine dell’AI assistiva. Ma delegare l’esecuzione a un sistema non deterministico non è la stessa cosa che codificare le regole in un processo.
Disclaimer: questo articolo è stato scritto con l’aiuto di Claude Opus.
Oggi Gartner ha pubblicato un comunicato dai contenuti netti: entro il 2028, più della metà delle imprese smetterà di pagare per l’assistive AI — copilot, smart advisor, assistenti integrati nei software aziendali — e sceglierà piattaforme che si impegnano a offrire workflow capaci di generare risultati concreti. Non più strumenti che aiutano le persone a lavorare, ma sistemi a cui il lavoro viene delegato.
La frase chiave è di Alastair Woolcock, VP Analyst di Gartner:
In this environment, execution authority is not a product feature. It is an architectural position that spans control over identity, permissions, policy enforcement, system-of-record access, and auditability.
I vendor che incorporeranno l’AI in questo “control plane” — cioè nel livello che governa chi può fare cosa, con quali vincoli, su quali dati — definiranno l’esecuzione dei workflow. Gli altri rischiano di diventare irrilevanti: un livello di interfaccia che gli agenti aggirano.
Il modello descritto è ambizioso. Per quel che capisco, gli esseri umani passano dal completare il lavoro con software procedurale al supervisionare sistemi intelligenti che eseguono per loro conto. Nasce una nuova figura: l’“Agent Steward”, che supervisiona i risultati anziché svolgere i compiti. E Gartner prevede che entro il 2030 le aziende software che si limiteranno ad aggiungere l’AI alle applicazioni legacy — anziché riprogettare per l’esecuzione agentica — subiranno una compressione dei margini fino all’80%.
È una previsione che, se presa alla lettera, ridisegna il mercato del software enterprise. Vale la pena guardarla con attenzione, perché si presta a diversi gradi di interpretazione: abbastanza specifica da sembrare concreta, abbastanza ampia da non poter essere facilmente smentita.
Il punto cieco nel cuore dell’argomento
L’articolo di Gartner fa una cosa interessante: riconosce esplicitamente che l’esecuzione delegata deve avvenire “within policy and identity constraints” — cioè all'interno dei vincoli delle policy aziendali e dei sistemi di identità. Parla di auditabilità, di enforcement, di permessi. In altre parole, Gartner sa che non si può dare carta bianca a un agente e sperare che vada tutto bene.
Ma qui emerge la faglia.
Il modello proposto da Gartner — un “control plane” che gestisce identità, permessi e policy a livello di piattaforma — è una risposta concreta a questo problema. Centralizzare la governance anziché frammentarla in centinaia di workflow scollegati ha una sua logica architetturale. Ma c'è un limite che questo modello non supera: un control plane può vincolare ciò che un agente è autorizzato a fare, ma non può garantire come l'agente ragiona per arrivare lì. E in contesti regolati, il “come” è esattamente ciò che va auditato.
Un workflow deterministico tradizionale non rispetta le regole: implementa le regole. Il processo di approvazione a tre livelli per gli ordini oltre una certa soglia non è un software che “opera entro vincoli di policy”: è la policy stessa, tradotta in codice eseguibile. Ogni biforcazione è prevista. Ogni eccezione è codificata. Ogni passaggio è tracciabile per costruzione. La compliance non è un layer aggiuntivo: è la struttura portante del flusso.
Un agente AI che opera “within policy constraints” è qualcosa di strutturalmente diverso. Non è la regola: l’interpreta. Un modello di linguaggio che decide quale API chiamare, in che sequenza e con quali parametri, introduce un elemento di non-determinismo, che è la sua forza — è ciò che gli permette di adattarsi a situazioni impreviste — ma anche il suo limite fondamentale in contesti regolati. Lo stesso input può generare percorsi diversi in momenti differenti. La capacità di spiegare il razionale delle decisioni è limitata. La riproducibilità non è garantita.
C’è una differenza tra un processo che applica le regole perché le ha incorporate nella propria struttura e un sistema che dovrebbe applicarle perché qualcuno gli ha detto di farlo. La differenza si chiama affidabilità verificabile. Ed è esattamente ciò su cui si reggono audit, certificazioni e responsabilità legali.
Il determinismo non è privo di limiti: gestisce male le eccezioni non codificate e, nei processi reali, queste sono frequenti. Ma la risposta a questo limite è ampliare la copertura del processo, non sostituire un sistema verificabile con uno che non lo è. Un workflow che non prevede un caso lo segnala — o, al peggio, si blocca. Un agente che non conosce un vincolo lo aggira, tipicamente senza che nessuno se ne accorga.
I workflow “approval-heavy” come primo bersaglio: un paradosso
C’è un passaggio dell’articolo che merita particolare attenzione. Gartner scrive che la prima disruption colpirà i “approval-heavy, timing-sensitive workflows” — i flussi ad alta intensità di approvazioni e sensibili ai tempi — in cui l’AI riduce la latenza decisionale riallocando l’autorità ad agenti vincolati alle policy.
È un paradosso rivelatore. I workflow ad alta intensità di approvazioni sono esattamente quelli in cui il determinismo opera per ragioni serie: segregation of duties, limiti di autorità, tracciabilità delle responsabilità, compliance normativa. Sono i flussi che le aziende hanno reso rigidi non per inefficienza, ma per una precisa scelta di governance.
Dire che l’AI “abbatte la latenza decisionale” in questi contesti significa, tradotto, che l’agente prende decisioni che prima richiedevano il giudizio di più persone. La latenza non è un difetto del processo: è il tempo che serve a più occhi per vedere, a più teste per valutare, a più firme per assumersi la responsabilità.
Questo non vuol dire che quei processi non possano essere migliorati. Molte approvazioni aziendali sono ridondanti, mal disegnate o sopravvissute alla ragione per cui sono state create. Snellirle è auspicabile. Ma il punto è un altro: chi decide quali approvazioni siano ridondanti e quali no? Se la risposta è “l’agente”, si sta delegando a un sistema non deterministico una decisione di governance — cioè esattamente il tipo di decisione che richiede accountability, trasparenza e tracciabilità. Il miglioramento dovrebbe venire da una riprogettazione consapevole della governance, non dalla delega a un sistema che “decide più in fretta” perché salta i passaggi.
Agent Steward: il supervisore che non può supervisionare
Il ruolo dell’“Agent Steward” — il supervisore umano che controlla i risultati anziché eseguire i compiti — è presentato da Gartner come l’evoluzione naturale del lavoratore nell’era agentica. L’umano non scompare: cambia funzione.
Ma la supervisione ha un prerequisito non negoziabile: il supervisore deve poter capire cosa il sistema ha fatto e perché. Con un workflow deterministico, questo è possibile per costruzione, perché il percorso è stato disegnato a priori e ogni passaggio è ispezionabile. Con un agente che costruisce il percorso dinamicamente, la supervisione diventa progressivamente più onerosa man mano che aumenta la complessità delle decisioni.
Si potrebbe obiettare che i sistemi agentici ben progettati possono generare log strutturati e spiegazioni delle decisioni, offrendo al supervisore strumenti migliori rispetto a quelli attuali. È una prospettiva ragionevole, ma al momento prematura: i modelli di linguaggio su cui si basano gli agenti non offrono spiegazioni affidabili dei propri processi decisionali. Il campo dell'explainable AI sta facendo progressi, ma la domanda normativa di trasparenza decisionale precede di gran lunga la capacità tecnologica di fornirla in modo robusto. Fino a quando quel divario non si chiude, l'Agent Steward resta un ruolo più dichiarato che esercitabile.
C’è un punto — e nei processi aziendali complessi si raggiunge in fretta — in cui la capacità di decisione dell’agente supera quella di verifica del supervisore. In quel punto, la supervisione diventa un rituale: l’Agent Steward approva ciò che non è in grado di valutare. E il “controllo umano” diventa una finzione organizzativa.
Chi ha esperienza di processi aziendali sa che questo rischio esiste già nei workflow tradizionali: approvazioni formali che nessuno legge davvero. Ma con un sistema deterministico, il flusso è almeno ricostruibile a posteriori. Con un agente non deterministico, anche la ricostruzione diventa problematica.
Dove sì e dove no
Niente di tutto questo significa che la visione di Gartner sia sbagliata in toto. Significa che è incompleta.
Ci sono ambiti in cui delegare l’esecuzione a un agente autonomo ha perfettamente senso: laddove la variabilità è elevata, le regole sono poche, le conseguenze di un errore sono contenute e reversibili: ricerca e sintesi di informazioni; triage delle richieste; generazione di bozze; esplorazione dei dati; personalizzazione dei contenuti. In tutti questi casi, il non-determinismo dell’agente non è un rischio ma un valore, perché la capacità di adattarsi al contesto è esattamente ciò che crea utilità.
Ma dove ci sono vincoli normativi stringenti, catene di responsabilità legale, necessità di audit e di piena tracciabilità, il workflow deterministico non verrà sostituito da un agente. Né dovrebbe esserlo. Semmai, verrà arricchito: componenti intelligenti nei punti dove serve flessibilità, regole rigide dove servono garanzie. Non sostituzione, ma integrazione.
A questo si aggiunge un dato che Gartner stessa ha fornito: tra i migliaia di vendor che dichiarano soluzioni di AI agentica, solo circa 130 offrono capacità autenticamente qualificabili come tali1. Il fenomeno dell’“agent washing” — ribattezzare chatbot e RPA come “agenti autonomi” — è così pervasivo che la stessa Gartner ne ha dovuto denunciare la pratica. Il che rende ancora più necessaria la cautela: molte aziende che credono di acquistare esecuzione delegata stanno probabilmente acquistando automazione tradizionale con un’interfaccia conversazionale.
Gartner contro Gartner
C’è un’ironia rivelatrice nel corpus di previsioni di Gartner degli ultimi due anni. Lo stesso istituto che oggi annuncia la fine dell’AI assistiva ha previsto anche che oltre il 40% dei progetti di AI agentica verrà cancellato entro fine 2027, per costi eccessivi, un valore di business poco chiaro e controlli di rischio inadeguati2; ha previsto che nessuna delle Fortune 500 avrebbe eliminato il servizio clienti umano entro il 20283; che il 50% delle organizzazioni che avevano pianificato di ridurre il personale del servizio clienti grazie all'AI abbandonerà quei piani entro il 20274; che entro il 2030, metà dei fallimenti nel deployment di agenti AI sarà dovuta a governance insufficiente5; che entro fine 2026, secondo le stime più recenti, le cause legali per danni attribuibili all'AI supereranno le duemila6.
Per essere onesti, queste previsioni non si contraddicono in senso stretto: un 40% di fallimenti è compatibile con un 60% di successi, e una tecnologia può essere al contempo promettente e rischiosa. La contraddizione non è nei numeri. È nel tono. Il comunicato di oggi ha un registro trasformativo e quasi inevitabilista (chi non si adegua rischia di restare, nelle parole di Gartner, a un livello di interfaccia che gli agenti aggirano; chi non riprogetta subirà margini compressi dell'80%). Il corpus delle altre previsioni, letto nello stesso momento, dipinge un quadro molto più cauto: pieno di fallimenti, di piani abbandonati, di governance insufficiente, di cause legali.
Se si mettono insieme tutti questi pezzi, il quadro complessivo è quello di una tecnologia promettente che si scontra con la complessità del mondo reale — un mondo fatto di regole, responsabilità, eccezioni e della necessità fondamentale di poter rispondere alla domanda: chi ha deciso cosa, e perché?
Woolcock ha ragione su un punto: l’autorità di esecuzione è una posizione architetturale, non una feature. Ma proprio per questo, delegarla a un sistema che interpreta le regole anziché incorporarle non è un’evoluzione naturale. È una scelta che va fatta con gli occhi aperti su ciò che si guadagna e ciò che si perde.
Il determinismo dei processi aziendali non è un retaggio del passato di cui liberarsi. È la risposta, costruita in decenni di esperienza, a una domanda che nessun agente AI ha ancora imparato a porsi: perché questa regola esiste.
© 2026 Alfonso Fuggetta & Sonia Montegiove. Salvo diversa indicazione, tutti i contenuti di questa pubblicazione sono protetti da copyright e rilasciati con licenza CC BY-NC-ND 4.0: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.it
Gartner, Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027, giugno 2025.
Ibidem.
Gartner, Gartner Announces Top Predictions for Data and Analytics in 2026, marzo 2026.
Gartner, Strategic Predictions for 2026: How AI’s Underestimated Influence Is Reshaping Business, ottobre 2025.



