Deterministico o probabilistico? La domanda che cambia tutto
Ricordando errori del passato, sappiamo abbastanza per le decisioni che stiamo prendendo in tema di AI?.
Questo post si collega a una riflessione che ho pubblicato qualche tempo fa (Sulle spalle di giganti che nessuno conosce) e riprende una metafora che mi è rimasta in mente.
Vi ricordate la stagione in cui il digitale terrestre avrebbe dovuto risolvere anche il problema della connessione a Internet? Non parlo della transizione dalla TV analogica a quella digitale. Quella era necessaria e, in sé, sensata. Parlo del momento in cui, anziché investire seriamente in banda larga, si pensò di usare il decoder del digitale terrestre come gateway per accedere alla rete. La piattaforma MHP, il canale di ritorno, i servizi interattivi via televisore. Una soluzione elegante sulla carta che utilizzava un’infrastruttura già finanziata.
Il digitale terrestre era nato con uno scopo preciso: trasmettere segnali in una sola direzione, dalla torre all’antenna di casa. Adattarlo a una comunicazione bidirezionale, che è la natura essenziale di Internet, richiedeva di piegarne il funzionamento in modo innaturale, ricorrendo a una serie di workaround. I risultati furono quelli prevedibili: lentezza, instabilità, adozione marginale. Non perché la tecnologia fosse scadente nel suo ambito naturale (era ottima per ciò per cui era stata progettata), ma perché nessuna quantità di adattatori compensa un’incompatibilità di fondo tra ciò che una tecnologia sa fare e ciò che le si chiede di fare.

Quella storia mi torna in mente ogni volta che partecipo a una riunione in cui si parla di “usare l’AI” per automatizzare un processo aziendale. Riconosco la stessa struttura mentale: la pressione a usare ciò che è disponibile, la difficoltà di fermarsi a capire se sia lo strumento giusto e la tendenza a scoprire i limiti solo dopo aver già investito. Ovviamente, il mio è soprattutto un confronto di costume che non intende indicare una stretta analogia tra due situazioni diverse, ma evidenziare un atteggiamento culturale, un vizio di postura che spesso ci penalizza.
La pressione del momento
Ogni settimana un annuncio. Ogni convegno ha una roadmap. Ogni consiglio di amministrazione ha una nuova voce di budget.
È indubbio che l’AI sia importante. E, ovviamente, lo è molto più del digitale terrestre, con dinamiche e risvolti ben più articolati e profondi. Tuttavia, la fretta di fare ha superato, in molti contesti, la comprensione del senso di ciò che si intende fare. Abbiamo davvero capito il problema che vogliamo risolvere? Ci siamo fermati a studiare? Abbiamo guardato sotto il cofano dell’auto?
Questa asimmetria tra la velocità delle decisioni e la profondità della comprensione costituisce il problema che intendo discutere.
Cosa c’è sotto il cofano
Ho già esplorato questo tema in un post precedente (Quando il computer indovina e quando calcola), ma vale la pena riprenderlo con occhi più operativi.
Permettetemi tre osservazioni limitando i tecnicismi (i tecnici perdonino le semplificazioni).
La prima. A differenza di un database che risponde sempre allo stesso modo alla stessa query, un sistema di AI generativa non cerca la risposta più probabile in assoluto (farlo produrrebbe output rigidi e qualitativamente inferiori), ma campiona tra le opzioni più plausibili. Quella variabilità è strutturale: la risposta può variare. Esiste un parametro tecnico, la cosiddetta “temperatura”, che si può impostare per ridurre tale variabilità. Ma i ricercatori della Penn State e di Comcast AI Technologies hanno mostrato che lo stesso prompt, fornito dieci volte nelle stesse condizioni (temperatura minima, sistema identico), produce risultati diversi nel 15% dei casi, con differenze di accuratezza fino al 70% tra il risultato migliore e quello peggiore. Non è un bug risolvibile con una patch perché è una conseguenza delle scelte architetturali con cui i sistemi AI vengono tipicamente costruiti e messi in esercizio.
La seconda. Uno studio condotto su 758 consulenti di una delle più grandi società di consulenza strategica al mondo ha misurato con precisione dove l’AI funziona e dove no. Il risultato è controintuitivo: la frontiera non separa i task facili da quelli difficili. Separa quelli che si adattano alla natura probabilistica del sistema da quelli che richiedono precisione deterministica, in modo irregolare e non prevedibile a priori. Lo stesso sistema che supera brillantemente un problema di strategia complessa può fallire su un problema a risposta univoca che richiede ragionamento esplicito anziché il riconoscimento di pattern. In pratica, il sistema eccelleva nel caso di analisi qualitativa di scenari, sintesi di informazioni, interpretazione di testi complessi. Al contrario, inciampava nel ragionamento quantitativo preciso, nella verifica dei calcoli e nei compiti a risposta univoca. Chi ha misurato ha rilevato un +40% di qualità nei compiti in cui il sistema eccelle e un +19% di errori in quelli in cui inciampa. Il problema per chi deve decidere è che non è semplice sapere, in anticipo, in quale categoria cade il proprio processo specifico.
La terza. Un concetto che vale la pena tenere a mente. Andrej Karpathy, uno dei ricercatori che ha definito il settore, già responsabile dell’autopilot di Tesla per cinque anni, ha descritto così la sfida di costruire sistemi AI affidabili (podcast con Dwarkesh Patel, YouTube):
“It’s a march of nines. Every single nine is the same amount of work. When you get a demo and something works 90% of the time, that’s just the first nine. Then you need the second nine, a third nine, a fourth nine, a fifth nine. While I was at Tesla for five years or so, we went through maybe three nines or two nines. There are still more nines to go.”
Il punto è sottile ma cruciale: la distanza tra un sistema affidabile al 90% e uno affidabile al 99% richiede lo stesso sforzo di quella tra il 99% e il 99,9%. Ogni nine è equidistante per quanto riguarda il lavoro. Raggiungere il 99% di affidabilità per ogni singola operazione è già un traguardo straordinariamente difficile, non un punto di partenza scontato. E anche il 98% è già un risultato ambizioso in contesti reali.
E ora aggiungiamo la seconda dimensione del problema. Un processo aziendale è una catena di operazioni: approvazione delle pratiche, gestione degli ordini, riconciliazione dei dati, flussi di compliance: decine di passaggi in sequenza, ciascuno con la propria probabilità di errore. Assumendo che ogni passo sia indipendente dagli altri, la probabilità che l’intera catena vada a buon fine è il prodotto delle probabilità di ciascun passo. E si tratta già di un caso ottimistico: se gli errori non sono indipendenti, se un errore in un passo aumenta la probabilità di errore nel passo successivo, come spesso accade nei processi reali, il risultato peggiora. Gli stessi articoli che trattano del “march of nines” fanno un esempio numerico: un processo di dieci passi, ciascuno affidabile al 98%, ha una probabilità di successo end-to-end dell’82%. Già questo dovrebbe far riflettere. Ma quel calcolo presuppone due condizioni favorevoli: che il 98% per singolo passo sia raggiungibile (Karpathy ci ha appena detto quanto costa) e che il processo si esaurisca in dieci operazioni. Nei processi reali entrambe le assunzioni sono ottimistiche. Lascio a voi il calcolo dei casi in cui non lo siano. Dato un problema, è accettabile che in una percentuale significativa di casi il risultato sia errato?
La domanda che manca nelle riunioni
Quando si discute di AI in un’azienda, si parla quasi sempre di ciò che il sistema può fare. Si parla raramente di quale tipo di processo si intende automatizzare.
Eppure è la domanda che cambia tutto.
Un processo sostanzialmente deterministico (riconciliazione contabile, validazione della conformità normativa, routing delle richieste secondo regole fisse) ha un output verificabile, regole esplicite e nessuna ambiguità fondamentale. Un sistema classico lo gestisce in modo affidabile, a costi contenuti e verificabile. Introdurre l’AI generativa in quel processo aggiunge variabilità dove non ce n’è bisogno, costi di verifica che prima non esistevano e una maggiore complessità architetturale.
Un processo che richieda di classificare una richiesta scritta in linguaggio libero, riassumere documenti eterogenei e gestire una conversazione non strutturata con un cliente presenta un’ambiguità di fondo: è qui che il sistema AI offre un vantaggio reale che un sistema classico non può replicare.
La maggior parte dei processi aziendali reali è ibrida: una parte deterministica, una parte probabilistica. La risposta giusta in quei casi è un’architettura che usa ciascun tipo di tecnologia per la parte che le compete. È ciò che le organizzazioni tecnologicamente più mature stanno costruendo. Salesforce ha appena annunciato una ristrutturazione della propria piattaforma esattamente in questi termini: un nucleo deterministico su cui montare componenti di AI per le parti che richiedono intelligenza linguistica. La loro stessa documentazione tecnica recita: “Gli agenti AI sono probabilistici, non deterministici — non si comportano allo stesso modo ogni volta.”
Quella frase è una buona bussola.
Trenta secondi prima di partire
Il senso di questi commenti non è negare l’importanza degli investimenti in AI, bensì sostenere che non è ragionevole investire senza aver prima risposto a qualche domanda di fondo: com’è fatto il sistema? Dove funziona e dove no? Qual è il tipo di processo su cui lo applico? Quali sono i costi quando le cose vanno storte? Dal punto di vista comportamentale e di costume, assomiglia pericolosamente alla corsa al digitale terrestre.
Il digitale terrestre ci ha insegnato che il costo dell’ignoranza tecnologica si paga, spesso in ritardo e con gli interessi. Con l’AI, sia la promessa sia il rischio sono di una scala incomparabilmente maggiore.
Forse vale la pena rallentare 30 secondi, fermarsi e capire. E capire, in questo caso, ha un contenuto preciso: il processo che voglio automatizzare è deterministico o probabilistico? Richiede garanzie di correttezza o tollera la variabilità? Quanto è lunga la catena di passi? Cosa succede quando uno va storto? Se la risposta indica un processo deterministico, un sistema classico farà meglio il lavoro a costi inferiori. Se si indica un processo probabilistico, allora l’AI ha senso — ma l’architettura e i guardrail diventano la vera domanda.
Non è filosofia: è la checklist che separa un'implementazione sensata da un digitale terrestre con più zeri. Quella storia ebbe anche le sue cause di economia politica. Con l'AI, quella scusa non esiste.
Disclaimer: questo post è stato realizzato con il supporto di Claude.
© 2026 Alfonso Fuggetta & Sonia Montegiove. Salvo diversa indicazione, tutti i contenuti di questa pubblicazione sono protetti da copyright e rilasciati con licenza CC BY-NC-ND 4.0: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.it


Assolutamente d'accordo, da tempo in azienda siamo abituati a ragionare su controlli/processi "algoritmici"e controlli/processi "cognitivi", ciò che tu chiami determinstiici e probabilstici. Nel primo caso automazioni tradizionali sono la soluzione, nel secondo GenAI può essera la via. L'analisi dei processi deve partire da li.
Vero, mi sentirei di aggiungere anche che “prediction is not reasoning”. Quindi anche per tutto ciò che riguarda il tema probabilistico c’è comunque sempre da fare attenzione all’output: fidarsi troppo per mancanza di tempo/voglia/conoscenza è un attimo.