"Per un martello, il mondo è fatto solo di chiodi"
Tutti siamo vittime di bias che ci condizionano e rallentano.
Nei primi anni Novanta, ero un giovane ricercatore e usavo molto le reti di Petri, uno strumento formale, elegante e potente, con una teoria matematica solida alle spalle. Il mio campo di ricerca era la modellazione dei processi di sviluppo del software. A posteriori, mi sono reso conto che, prima ancora del problema, ero innamorato dello strumento. Se c’era un problema, la mia prima domanda non era “Qual è esattamente il problema, com’è caratterizzato?” o “Qual è lo strumento giusto per affrontarlo?”, ma “Come posso modellarlo con una rete di Petri?”.

Fu un senior consultant americano, durante un workshop, a fermarmi con una frase che non ho più dimenticato: “For a hammer, the world is made only of nails.”
Non lo sapevo ancora, ma stava citando quella che il filosofo Abraham Kaplan aveva formalizzato nel 1964 come legge dello strumento: dai un martello a un bambino e scoprirà che tutto ha bisogno di essere martellato. Due anni dopo, Abraham Maslow la rese celebre in una formulazione più affilata: “Se il solo strumento che hai è un martello, finirai per trattare tutto come se fosse un chiodo.”
Quella frase mi accompagna da trent’anni. Ogni volta che una nuova tecnologia viene presentata come la risposta a ogni problema, è come se rivedessi quel consulente americano che mi ricorda quanto siano sbagliati questi comportamenti.
Una galleria di martelli
La storia dell’informatica è punteggiata di infatuazioni collettive — momenti in cui un’intera industria si convince che una specifica tecnologia sia la soluzione universale e smette di chiedersi quali problemi sia effettivamente in grado di risolvere.
I sistemi esperti. Negli anni Ottanta, la promessa era di catturare la conoscenza degli specialisti umani e codificarla in regole. In alcuni domini funzionava. XCON, sviluppato alla Carnegie Mellon per la Digital Equipment Corporation, configurava i computer DEC e si stima che abbia fatto risparmiare all’azienda decine di milioni di dollari in pochi anni di utilizzo. MYCIN diagnosticava infezioni batteriche con un’accuratezza paragonabile a quella dei medici in studi controllati. Ma il successo in nicchie specifiche alimentò un’aspettativa eccessiva.
A metà degli anni Ottanta si stima che le aziende americane spendessero oltre un miliardo di dollari l’anno in intelligenza artificiale, soprattutto in sistemi esperti. Nacque così un’industria di hardware dedicato: le Lisp machine di aziende come Symbolics, nota anche per aver registrato il primo dominio .com, che nel giro di pochi anni sarebbe entrata in crisi. Anche il Giappone lanciò il Fifth Generation Computer Project, investendo enormi risorse per sviluppare macchine capaci di ragionare in modo più simile a quello umano, ma senza ottenere i risultati sperati.
Quando questi sistemi si rivelarono fragili, costosi da mantenere e poco robusti di fronte a situazioni impreviste, il mercato crollò. Verso la fine degli anni Ottanta, il business delle Lisp machine collassò: molte aziende chiusero o ridussero drasticamente le divisioni AI, e i finanziamenti si prosciugarono. Fu una delle fasi più note dell’AI winter.
Il digitale terrestre come Internet. In Italia, nei primi anni Duemila, il passaggio alla televisione digitale terrestre fu carico di un’ambizione che andava ben oltre la televisione. La piattaforma MHP (Multimedia Home Platform) prevedeva tre profili di utilizzo, e il più ambizioso — l’Internet Access Profile — prometteva di trasformare il televisore in un terminale per navigare il web. L’idea era sfruttare la capacità del segnale broadcast per il download e appoggiarsi a un canale di ritorno, come una linea PSTN o una connessione GPRS, per l’upload. Ma il problema era strutturale: il digitale terrestre è una tecnologia pensata innanzitutto per la trasmissione unidirezionale. Pretendere di farne una piattaforma interattiva significava forzare un mezzo broadcast in un ruolo per cui non era nato. Quando arrivarono la banda larga e gli smartphone, il sogno della TV interattiva come porta di accesso a Internet si dissolse silenziosamente. Il martello era broadcast. Il chiodo richiedeva bidirezionalità.
La blockchain. Come tecnologia, la blockchain risolve un problema reale e specifico: garantire transazioni verificabili tra parti che non si fidano l’una dell’altra, senza un’autorità centrale. Per le criptovalute funziona. Ma a un certo punto, intorno al 2016-2018, la blockchain è diventata la risposta a qualsiasi domanda: tracciabilità alimentare, voto elettronico, identità digitale, supply chain, contratti immobiliari, certificazione dei titoli di studio. Ogni settore doveva avere la propria blockchain.
Il caso più emblematico è TradeLens, la piattaforma lanciata nel 2018 da Maersk e IBM per digitalizzare la logistica marittima globale. Sulla carta, sembrava il caso d’uso perfetto: tracciare container in tempo reale, condividere documenti doganali in un registro distribuito e immutabile. Ma il progetto richiedeva che tutti gli attori della filiera — compagnie di navigazione, spedizionieri, autorità portuali — condividessero dati su una piattaforma controllata dal più grande operatore del settore. Non accadde. Nel novembre 2022, dopo quattro anni, Maersk e IBM annunciarono la chiusura: “la necessità di una piena collaborazione globale dell’industria non è stata ottenuta”. Un analista di Gartner commentò che quella chiusura sembrava l’ultimo capitolo dell’era dei costosi progetti di blockchain per l’impresa.
Nel frattempo, ricercatori del MIT bocciavano senza appello il voto elettronico basato sulla blockchain, concludendo che i sistemi cartacei restano più affidabili. E uno studio pubblicato su Supply Chain Management osservava un fenomeno rivelatore: in diversi progetti blockchain per la supply chain, i clienti ottenevano i maggiori benefici dalla fase di mappatura dei processi che precedeva l’implementazione. Alcuni abbandonavano il progetto blockchain a quel punto, avendo già risolto i problemi semplicemente analizzandoli. La blockchain non era servita.
Il metaverso. Nell’ottobre del 2021, Mark Zuckerberg rinominò Facebook in Meta e presentò il metaverso come una delle grandi direttrici del futuro dell’azienda: mondi virtuali immersivi in cui lavorare, socializzare e intrattenersi. Reality Labs, la divisione dedicata, ha registrato oltre 80 miliardi di dollari di perdite operative in sei anni, con perdite che si sono incrementate anno dopo anno. Horizon Worlds, la piattaforma sociale che doveva essere la vetrina del metaverso, non ha mai raggiunto un’adozione significativa. Nel 2026 Meta ha annunciato una svolta: Horizon Worlds sarebbe uscito dal Quest Store il 31 marzo e il supporto VR sarebbe stato progressivamente ritirato entro il 15 giugno, salvo poi precisare che la transizione non implicava una chiusura definitiva del progetto. In ogni caso, il messaggio era chiaro: la spinta iniziale sul metaverso si era già ridimensionata, mentre l’azienda riallocava sempre più energie e capitali all’intelligenza artificiale.
L’intelligenza artificiale generativa. Ed eccoci al martello del momento. L’AI generativa è una tecnologia con capacità reali e significative. Ma il meccanismo dell’infatuazione è già in pieno corso. Ogni prodotto deve avere l’AI dentro. Ogni processo deve essere “potenziato dall’AI”. Ogni azienda deve avere una “strategia AI” — spesso prima ancora di avere chiaro quale problema intenda risolvere.
Il parallelo con le ondate precedenti è impressionante. Come per i sistemi esperti, si parla di sostituzione universale: l’AI rimpiazzerà avvocati, medici, programmatori, autori, insegnanti. Come per la blockchain, si applica la tecnologia a problemi che non la richiedono, confondendo ciò che l’AI può fare con ciò che conviene farle fare. Come per il metaverso, si investono cifre colossali sulla base di una visione che precede la domanda reale: Meta stessa ha annunciato tra 115 e 135 miliardi di dollari di investimenti in infrastrutture AI per il 2026.
Il punto non è se l'AI generativa sia utile — lo è. Sperimentare una tecnologia al di fuori del suo dominio originario è fisiologico — è così che si scopre a cosa serve davvero. Ma c'è una differenza tra l’esplorazione consapevole e l’illusione di un’adozione di massa spinta dalla paura di restare indietro. Il punto è se stiamo di nuovo scambiando un buon martello per l’unico strumento di cui avremo mai bisogno. E la storia suggerisce che la risposta sia sì.
In verità tutti siamo vittime dei nostri bias e non è necessariamente un male, finché ne siamo consapevoli. Per questo è vitale che ci sia un ecosistema dei media e degli “addetti ai lavori” che includa pesi e contrappesi, analisi critiche e approfondimenti, strumenti e comportamenti che limitino i bias e aiutino tutti a sviluppare al meglio la propria missione e ambizione.
Guardare il problema, non lo strumento
Trent’anni dopo quella conversazione, il consulente americano probabilmente non si ricorda di me né di quell’episodio. Ma io la porto con me come un vaccino contro l’entusiasmo acritico — per primo il mio, visto che ci sono cascato in pieno con le reti di Petri.
La legge dello strumento non è un invito a diffidare della tecnologia. I sistemi esperti funzionavano in alcuni domini. La blockchain funziona per certi problemi. L’AI generativa è efficace per molti compiti. Il problema non è mai il martello di per sé. Il problema è quando si smette di guardare ciò che si ha davvero davanti e si vede solo un mondo di chiodi.
Ogni volta che adottiamo una tecnologia perché è nuova, perché tutti ne parlano, perché “non possiamo restare indietro”, stiamo scegliendo di non scegliere. Stiamo delegando la decisione all’entusiasmo del momento, che è la peggior guida possibile quando si progettano sistemi, si investono risorse, si costruiscono strategie.
La cassetta degli attrezzi di chi lavora con la tecnologia dovrebbe essere ampia e, soprattutto, restare sempre aperta. Il primo gesto non è prendere in mano uno strumento. È guardare il problema, capirne la natura, e poi — solo poi — decidere cosa serve.
Dobbiamo essere innamorati del problema, non della soluzione.
A volte servirà il martello, a volte un cacciavite. A volte serve tornare a farsi domande prima di avviare qualsiasi altra attività. È la sfida di chi fa innovazione, qualunque ruolo decida di svolgere in questa affascinante partita.
Disclaimer: questo post è stato realizzato con il supporto di GenAI.
© 2026 Alfonso Fuggetta & Sonia Montegiove. Salvo diversa indicazione, tutti i contenuti di questa pubblicazione sono protetti da copyright e rilasciati con licenza CC BY-NC-ND 4.0: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.it



Ottima analisi della storia dei "tools" informatici che condivido e che ho vissuto personalmente, dalle reti di Petri del compianto Giovanni Degli Antoni ai sistemi esperti, dalle reti neurali al machine learning.
Il modello dell'industria informatica mondiale ha sempre vissuto di una dicotomia tra hype che provocavano domanda di applicazioni e ricerca critica che produceva nuovi settori teorici e tecnologici.
Non so se le richieste di partecipazione alle evoluzioni da parte delle aziende che compravano questi hype fossero frutto di investimenti marketing delle aziende informatiche o semplicemente modi per il management dei clienti per la corsa competitiva interna.
Ai piani alti come facevi a criticare le evoluzioni se il tuo posto nasceva dal fatto che avevi cavalcato le precedenti e su di esse tacevi o ne parlavi come di una epica battaglia contro le forze oscure dell'arretratezza tecnologica?
Il cinismo dilagava, ma l'entusiasmo non veniva mai smorzato perché era una facile molla per la crescita delle vendite o della carriera a seconda del lato in cui ti trovavi.
Una serie di tratti in comune con la pratica religiosa o politica.
Il problema è che ora, di fronte all'IA, anche i critici/cinici non sanno cosa fare: non abbiamo ancora capito bene quale sarà l'aspetto critico che smorzerà la crescita esponenziale dell'hype.
Quindi non sappiamo quando arriverà la fase di maturità della curva a S di Nolan-Norton.
Non sappiamo neppure se i modelli di introduzione delle tecnologie siano ancora validi.
Cioè non sappiamo neppure se il martello con cui i consulenti cinici affrontavano i modelli di hype/mode/innovazioni siano ancora validi.
In molti vogliono usare il martello dello schema delle evoluzioni tecnologiche passate anche per questa. Ma c'è un problema.
Il problema è che stavolta, per il martello intelligenza artificiale, il chiodo è il nostro cervello. E rischiamo di farci male.
Ottimo da una parte ho dato una origine alla mia versione del detto che uso sempre per smontare gli entusiasmi e che è declinata in “ per chi ha un martello ogni vite è un chiodo” ma il mondo di chiodi è più suggestiva dall’altra sposo appieno l’idea che dobbiamo guardare ai problemi non a lucidare gli strumenti! Bell’ articolo