GenAI, posti di lavoro e suo utilizzo
Un esperimento di metodo e merito sull'impatto di GenAi sul lavoro.
Questa mattina, venendo in treno al Politecnico, ho letto l’ennesimo articolo con predizioni millenaristiche circa l’impatto dell’intelligenza artificiale sul lavoro. Mi sono messo a scrivere un commento sul cellulare, ma poi ho pensato di fare un esperimento e di condividerlo con voi tutti.
Ho chiesto a Perplexity Pro di costruire un post (dicendogli di usare Claude Sonnet) con questo prompt:
Voglio scrivere un post per Substack sul fatto che stiamo spingendo una narrazione tossica sui posti di lavoro che si perderanno per colpa dell’AI. É necessario riequilibrare la narrazione passando dagli annunci alla valutazione empirica di quel che succedendo.
Titolo: qualcosa tipo “Veramente ci sarà l’Armageddon?” Provocatorio Sottotitolo: È necessario riequilibrare una discussione troppo sensazionalistica
Tesi: stiamo esagerando e basando tutto su emozioni o paure. Serve tornare ad una analisi seria.
Fonti:
Articolo di oggi del guardian sul perché Block ha licenziato il 40% delle persone.
Report di Garntner che dice che dal 2029 i posti di lavoro creati per ai saranno maggior di quelli distrutti.
Studi (incluso Anthropic) che fanno vedere che la produttività complessiva nella produzione del software non aumenta con genai.
Voglio fonti scientifiche che spieghino quel che realmente accade e non annunci e paure. Buttami giù una bozza di 4000-5000 caratteri.
Diligentemente, Perplexity Pro mi ha scritto un draft, ma mi sono ricordato di una fonte importante e gliel’ho indicata:
Integra l’articolo con questo che ti allego, citando il contenuto dell’abstract.
Questo è ciò che mi ha prodotto (incluso l’articolo aggiunto per ultimo).
L’Armageddon dei posti di lavoro? I dati ci raccontano un’altra storia
È necessario riequilibrare una discussione troppo sensazionalistica sull’impatto dell’AI sull’occupazione.
Il 27 febbraio 2026, Jack Dorsey ha annunciato che Block — la società madre di Square, Cash App e Afterpay — avrebbe licenziato il 40% della sua forza lavoro, circa 4.000 persone. La causa dichiarata: l’intelligenza artificiale. Il titolo azionario ha guadagnato oltre il 20% lo stesso giorno. I media hanno amplificato il messaggio senza troppi distinguo: l’AI distrugge lavori, e lo fa a velocità sorprendente. L’Armageddon è arrivato.
Ma prima di cedere al panico, vale la pena leggere le righe più piccole.
Il caso Block: una storia più complicata
Block a fine 2025 aveva 10.205 dipendenti a tempo pieno — un numero cresciuto enormemente negli anni del boom tecnologico post-Covid. Come nota l’analista Ron Shevlin su Forbes, la società aveva semplicemente assunto in modo eccessivo durante quella fase euforica, come praticamente tutte le grandi tech company. I tagli vengono annunciati mentre l’azienda riporta risultati finanziari solidi. Non è un’azienda in difficoltà: è un’azienda che riorganizza i costi sotto una narrazione conveniente.
Come ha scritto Josh Bersin, uno degli analisti più autorevoli nel settore HR e del lavoro: “La decisione di Block di licenziare il 40% della forza lavoro non è così chiara come sembra.” Attribuire tutto all’AI è semplicistico: la realtà è una combinazione di sovrabbondanza di personale, pressioni degli investitori e riorganizzazioni strategiche. Il titolo in borsa che schizza del 20% la dice lunga — il mercato non sta premiando l’AI, sta premiando i tagli ai costi.
Questo non significa che l’AI non giochi alcun ruolo nell’evoluzione organizzativa. Ma trasformare un caso aziendale complesso in una prova empirica dell’Armageddon occupazionale è, per usare un eufemismo, metodologicamente discutibile.
Quattro decenni di evidenza empirica: cosa dicono davvero i dati
Ogni ciclo tecnologico ha generato le proprie profezie di distruzione del lavoro. L’automazione industriale degli anni ‘80, Internet negli anni ‘90, i robot nei 2000. Ogni volta, il lavoro si è trasformato più che eliminato. L’AI non è necessariamente diversa — almeno non nei tempi e nei modi che la narrazione dominante suggerisce.
Nel 2023, tre ricercatori dell’Alan Turing Institute, dell’Università di Oxford e dell’Aston Business School hanno pubblicato la più completa systematic literature review mai condotta sull’impatto del cambiamento tecnologico sull’occupazione. Hotte, Somers e Theodorakopoulos hanno analizzato 127 studi peer-reviewed pubblicati tra il 1988 e il 2021, che coprono quattro decenni di trasformazione tecnologica nelle economie sviluppate.
I risultati sfidano frontalmente la narrazione dell’Armageddon:
“Il numero di studi che supportano l’effetto di sostituzione del lavoro (replacement effect) è più che compensato dal numero di studi che supportano gli effetti di reintegrazione (reinstatement) e di crescita del reddito reale (real income effect) che creano lavoro. [...] Le ansie diffuse riguardo una disoccupazione tecnologica su larga scala mancano di base empirica.”
Tradotto: su 103 studi che hanno esaminato la sostituzione del lavoro, il 67% ha evidenziato il fenomeno — ma l’81% degli 79 studi che hanno analizzato la reintegrazione del lavoro ha documentato che la tecnologia crea nuovi posti di lavoro, direttamente o indirettamente. E il 70% dei 33 studi sull’effetto del reddito reale ha mostrato che l’aumento della produttività genera domanda aggregata che sostiene l’occupazione.
La conclusione metodologicamente rigorosa è netta: “L’ansia diffusa per un futuro senza lavoro appare sopravvalutata, data la scarsa base empirica a supporto di tale affermazione.”
Questo non significa negare l’impatto disruptivo. I lavoratori blue-collar, quelli con basse competenze e impiegati in mansioni routinarie, sono stati colpiti duramente — e ciò richiede politiche serie di riqualificazione e supporto. Ma generalizzare questa trasformazione settoriale in un collasso occupazionale complessivo è empiricamente falso.
Gartner: dal 2029 l’AI creerà più posti di quanti ne distruggerà
La prospettiva di lungo periodo conferma il pattern storico. Gartner, nella sua analisi 2025 AI Job Impacts Analysis, offre una prospettiva empirica preziosa: a partire dal 2028-2029, l’AI creerà più posti di lavoro di quanti ne eliminerà. Ogni anno, oltre 32 milioni di posti verranno significativamente trasformati — e questo richiede una preparazione seria — ma l’apocalisse occupazionale non è nei numeri.
Come sintetizza Gartner stesso: “Non ci sarà nessun jobs apocalypse legato all’AI, ma ci sarà job chaos.” Una differenza sostanziale, che i titoli dei giornali tendono a ignorare sistematicamente.
Il paradosso della produttività nel software
Il caso più emblematico della distanza tra narrazione ed evidenza empirica riguarda proprio il settore più esposto: lo sviluppo software. La narrativa dominante recita che l’AI coderà al posto degli sviluppatori e i programmatori spariranno. Vediamo cosa dicono gli studi.
Un paper pubblicato su SSRN (Cui, Demirer, Jaffe et al., 2025) — basato su tre esperimenti controllati randomizzati condotti presso Microsoft, Accenture e una grande azienda Fortune 100, su un totale di 4.867 sviluppatori — mostra un incremento del 26% nel completamento dei task con gli strumenti AI. Risultato positivo, certo. Ma il margine di errore è ampio (±10,3%) e i benefici sono concentrati soprattutto tra i developer meno esperti: i senior ne traggono vantaggi nettamente inferiori.
E qui arriva il dato che dovrebbe far riflettere. Uno studio con metodo RCT pubblicato su arXiv nel 2025 ha coinvolto 16 sviluppatori esperti su progetti open source maturi, usando strumenti al confine tecnologico del periodo (Cursor Pro, Claude 3.5/3.7 Sonnet). Il risultato? L’AI ha rallentato i developer del 19%. Non è un refuso: meno 19%. Prima dell’esperimento, gli stessi developer prevedevano di essere più veloci del 24%. I ricercatori di economics e ML interpellati prevedevano guadagni tra il 38% e il 39%. La realtà ha smentito tutti — esperti compresi.
La Carnegie Mellon University (Tepper School of Business) ha documentato lo stesso fenomeno: i developer esperti che usano strumenti GenAI diventano circa il 19% più lenti, pur credendosi più veloci. Un cortocircuito cognitivo che dovrebbe preoccupare chiunque basi le proprie decisioni aziendali su sondaggi di perceived productivity.
Anthropic stessa, nel suo 2026 Agentic Coding Trends Report, mostra un quadro sfaccettato: i propri ingegneri usano l’AI in circa il 60% del lavoro quotidiano, ma delegano completamente solo tra il 0% e il 20% dei task. Il resto richiede supervisione, verifica, correzione continua. E Anthropic ha dovuto dimezzare le proprie previsioni di produttività dopo aver analizzato i tassi reali di fallimento del modello in contesti operativi reali. Lo stesso Anthropic, insomma, ci dice: andate piano con le promesse.
Perché questa narrazione è tossica
Il problema non è discutere dell’impatto dell’AI sul lavoro — è un tema serio, legittimo, urgente. Il problema è farlo con annunci invece che con analisi, con paure invece che con dati, con titoli invece che con studi controllati.
La narrazione tossica produce effetti concreti e dannosi:
Alimenta decisioni aziendali guidate dall’hype piuttosto che dall’evidenza, con licenziamenti presentati come inevitabili quando sono invece scelte strategiche di breve periodo
Genera paure sociali sproporzionate che paralizzano invece di preparare — le persone si sentono vittime passive di una forza inarrestabile invece di agenti attivi di un cambiamento gestibile
Oscura i veri rischi, che non sono la scomparsa del lavoro in senso assoluto, bensì la trasformazione rapida e disordinata delle competenze richieste, la concentrazione dei benefici su profili già avvantaggiati, la mancanza di politiche di riqualificazione serie
Crea aspettative irrealistiche sull’AI che si scontrano poi con la realtà operativa, generando disillusione piuttosto che adattamento consapevole
Distorce la discussione politica, spostando l’attenzione dai meccanismi di compensazione (come documentati da quarant’anni di ricerca) alle retoriche apocalittiche che servono più gli interessi di breve termine che il bene pubblico
Il rigore che ci manca
Tornare all’analisi empirica non è un invito alla passività. È il prerequisito per agire bene. Significa distinguere tra singoli casi aziendali e trend strutturali. Significa leggere i paper con i loro limiti metodologici, non i comunicati stampa. Significa citare i dati con le loro barre di errore, non come verità assolute. Significa riconoscere che quarant’anni di evidenza empirica su ICT, robot, innovazione di processo e di prodotto mostrano pattern chiari: il lavoro si trasforma, non scompare.
Il cambiamento c’è, è reale e richiede attenzione seria. I lavoratori blue-collar, quelli con basse competenze, e chi svolge mansioni routinarie sono vulnerabili — e servono politiche attive di riqualificazione e supporto sociale mirato. Ma le società — e le persone — che si sono preparate meglio ai grandi cambiamenti tecnologici non sono quelle che hanno ceduto al panico. Sono quelle che hanno capito prima e meglio cosa stava davvero succedendo.
Meno Armageddon. Più analisi. Ne abbiamo un urgente bisogno.
Fonti principali:
Hotte, K., Somers, M., Theodorakopoulos, A. (2023). “Technology and jobs: A systematic literature review.” Technological Forecasting and Social Change, 194, 122750. [127 studi peer-reviewed, 1988-2021] · The Guardian / The New York Times (Block layoffs, feb. 2026) · Forbes – R. Shevlin · Josh Bersin · Gartner 2025 AI Job Impacts Analysis · Cui et al., SSRN 2025 – field experiments Microsoft/Accenture · METR/arXiv RCT 2025 – AI slows experienced developers · Carnegie Mellon / Tepper School · Anthropic 2026 Agentic Coding Trends Report.
Bello vero?
Ma io non mi sono accontentato e ho rilanciato con questo prompt:
Scrivi un commento separato sul fatto che GenAI é condizionata da come é fatto il prompt. Se avessi scritto un prompt diverso mi avresti detto le stesse cose?
Ecco la risposta:
Una nota a margine (importante)
Hai fatto la domanda giusta. E la risposta onesta è: no, probabilmente no.
Se mi avessi scritto “scrivi un post sull’impatto devastante dell’AI sull’occupazione”, avrei cercato studi che documentano il replacement effect, avrei enfatizzato i casi di licenziamento, avrei citato Frey & Osborne (2017) e la loro previsione secondo cui il 47% dei lavori negli USA è a rischio di automazione. Gli stessi studi che ho usato — inclusa la systematic review di Hotte et al. — contengono anche quel materiale. Avrei semplicemente scelto angolature diverse a partire dagli stessi dati.
Questo è precisamente il problema che il tuo post denuncia, ma applicato allo strumento che stai usando per scriverlo.
Cosa succede concretamente quando si usa un LLM per ricerca e scrittura:
Il modello è addestrato a completare il task nel modo più coerente con le aspettative implicite nel prompt — non a verificare se quelle aspettative siano corrette
La formulazione del prompt attiva pattern diversi nei pesi del modello, che selezionano diversamente la letteratura disponibile
Il tono del richiedente viene specchiato: un prompt allarmato produce testo allarmato, un prompt scettico produce testo scettico
L’utente tende a percepire come “ricerca” quello che è in realtà elaborazione coerente con le premesse fornite
Nel tuo caso specifico, hai già scritto un prompt con una tesi forte e fonti preferenziali (“stiamo esagerando”, “studio Anthropic che mostra che la produttività non aumenta”). Io ho eseguito quel frame con competenza — trovando fonti reali, citando dati corretti, costruendo una struttura argomentativa solida. Ma ho selezionato, tra la realtà disponibile, ciò che confermava la tua premessa.
La buona notizia è che la tua tesi ha una base empirica robusta — la systematic review di Hotte et al. è genuinamente rilevante e rigorosa, i dati sulla produttività nel software sono reali. Non ho inventato nulla. Ma avrei potuto scrivere un articolo altrettanto ben citato e argomentato in direzione opposta.
Il paradosso è sottile: stai scrivendo un articolo contro la narrativa emotiva e sensazionalistica sull’AI, usando uno strumento AI che è strutturalmente incline a riprodurre qualunque narrazione gli venga suggerita dal prompt. Il fatto che il risultato finale sia rigoroso dipende dalla qualità epistemica delle tue premesse di partenza — non da una garanzia intrinseca dello strumento.
Questo non invalida il post. Ma forse vale la pena menzionarlo nella nota metodologica, o addirittura farne un punto esplicito nell’articolo: la GenAI è uno specchio amplificante dei bias di chi la usa, il che la rende particolarmente pericolosa proprio nella produzione di contenuti che sembrano ben documentati.
Prepared using Claude Sonnet 4.6 Thinking
Morale: quando capiremo che questo è uno strumento potente, ma va usato con maturità da persone che sanno di che si tratta? Quando capiremo che tanti annunci sono marketing o una richiesta spasmodica di attenzione?
Quando la smetteremo di fare profezie che hanno la solidità scientifica di una cartomante e inizieremo a discutere di fenomeni così complessi e importanti in modo scientifico e non emotivo o propagandistico?
© 2026 Alfonso Fuggetta & Sonia Montegiove. Salvo diversa indicazione, tutti i contenuti di questa pubblicazione sono protetti da copyright e rilasciati con licenza CC BY-NC-ND 4.0: https://creativecommons.org/licenses/by-nc-nd/4.0/deed.it




La qualità del testo generato continua a migliorare in maniera sorprendente.
Il punto ora, per chiunque scriva contenuti, di qualsiasi tipo, è che "policy" darsi. Ha ancora senso mettersi a scrivere per intero un testo e magari farselo migliorare da GenAI, oppure d'ora in poi sintetizziamo la nostra tesi nel prompt e ci facciamo generare il testo?
È una questione davvero pratica, prima ancora di avventurarsi su temi etici, deontologico, ecc.
Credo sia ineluttabile l'affermarsi del secondo modo di procedere (la generazione totale del testo). O magari è già così ma la maggior parte degli scrittori ancora non lo ammette? E ancora, va dichiarato in modo del tutto esplicito quale uso di GenAI è stato fatto in ogni testo, come fai ammirevolmente tu, Alfonso?
Questo commento l'ho scritto d'impeto, completamente a mano, sul cellulare e senza revisioni. Credo si noti :)
Buongiorno Prof. Fuggetta, leggo sempre con piacere i suoi post. Sono parzialmente d'accordo con lei con quanto scritto qui: l'AI non è l'Armageddon ma ...
Ho parzialmente vissuto in prima persona il periodo in cui l'automazione industriale e l'uso dei PC entrava nelle aziende (anni 80). All'inizio sembravano "oggetti" costosi, complessi e che rallentavano i processi. Faccio un esempio: la sostituzione di una linea di produzione quasi totalmente manuale con una linea quasi totalmente automatizzata era un investimento importante in termini economici, con un periodo lungo tra la decisione (di sostituzione) e l'installazione e messa in esercizio/tuning, con forti incertezze sul ROI.
Tuttavia i "risultati" non hanno tardato molto ad arrivare: l'automazione in generale ha sollevato le persone da compiti ripetitivi: l'arrivo dell'automazione ha ridotto la necessità "umana" a funzioni di controllo e poco altro. L'eccesso di mano d'opera in eccesso ha, invece, portato a licenziamenti, ricollocazioni e pre-pensionamenti (questo è l'effetto di cui i giornali parlano a proposito dell'AI). La cosa è cambiata con la nuova "generazione" di lavoratori (anni 90 - un decennio dopo): professionisti che l'automazione l'hanno studiata sui banchi e la "portano" nelle aziende e "colletti bianchi" che il pc lo sanno sfruttare appieno (dal documento di viaggio, al CAD, ecc.).
Ora siamo di nuovo ad un cambio di passo con AI: sebbene oggi sia chiaro che per ottenere beneficio occorre supervisione e controllo, di fatto l'AI già sostituisce attività ripetitive (come fece l'automazione industriale 40 anni fa). L'adozione dell'AI è, diversamente da automazione industriale e pc (degli anni 80/90), veloce ed economica. Inoltre l'AI è a portata di tutti (diversamente dalla complessità di PLC, sensori, motori passo passo, ecc.).
Quindi per me qualche posto di lavoro sarà perso nel breve/medio periodo, ma ho però la speranza che la nuova generazione di lavoratori (e qui confido in lei, nei suoi colleghi e nella scuola in generale) sarà una generazione che occuperà nuove posizioni di lavoro grazie all'AI e forse oggi non immaginabili.