Perché non possiamo lasciare che le macchine “pensino” al nostro posto
Il rischio del cognitive offloading, cioè demandare conoscenza e saper fare a tecnologie come l'AI, è enorme. I proclami che si leggono sono non solo poco realistici, ma proprio subdoli e pericolosi.
Non passa giorno senza leggere l’ennesimo articolo in cui, con toni di volta in volta catastrofistici o, al contrario, miracolistici, si inneggia alla scomparsa del lavoro, al fatto che possiamo usare AI – e GenAI in particolare – per svolgere qualunque compito, dallo sviluppo di codice alla creazione di una strategia di impresa, piuttosto che nuove modalità di studio e di formazione.
In realtà, i dati dicono che questi impatti sono molto meno visibili e concreti di quanto si racconti. Nel maggio del 2025, The Economist titolava “Welcome to the AI trough of disillusionment”. E il MIT segnala, in un suo studio molto citato, che molti progetti di adozione dell’AI non raggiungono lo stato di adozione diffusa nelle imprese e non producono l’impatto atteso. Altri, dal lato opposto, contestano questi giudizi e li giudicano distorti o quanto meno prematuri. Tuttavia, è indubbio che le annunciate dinamiche millenaristiche si stiano sviluppando molto più lentamente di quanto spesso si proclami. Gary Marcus continua a sottolineare questi rischi e il fatto che i risultati reali siano molto al di sotto delle attese: questo è un suo post di pochi giorni fa.
Al di là della discussione sull’impatto osservato dell’AI, ciò di cui dovremmo discutere è un tema ancora più ampio e assai più critico.
Cosa vuol dire imparare al tempo delle tecnologie digitali? Cosa dobbiamo continuare a saper fare anche in presenza di strumenti digitali che ci aiutano o, addirittura, hanno la potenzialità di sostituirci? Come dovranno essere concepite le competenze del futuro?
Un interessante articolo di Mary Burns e Rebecca Winthrop, apparso pochi giorni fa sul sito del think tank indipendente Brookings, affronta questo tema in modo diretto e netto.
L’incipit dell’articolo è illuminante:
What role will artificial intelligence play in shaping the future of student learning and development? Will it substantially improve children’s education or present risks that undermine it? As educators contemplate AI’s integration into classroom practice, how can we embrace its transformational potential while minimizing risks to student agency, deep learning, and emotional well-being? And as children increasingly encounter AI everywhere—from classrooms to their homes—how do we analyze its impact across all learning contexts, not just within school walls?
These questions frame what may be the most consequential conversation in contemporary education—the impact of generative artificial intelligence on the learning and development of students globally.
Le autrici sottolineano alcuni vantaggi dell’AI, di cui si parla spesso in molti consessi: può aiutare docenti e studenti nello svolgimento di compiti ripetitivi; può assistere i docenti nella preparazione di materiale didattico e di test didattici mirati; è molto utile per la ricerca e l’organizzazione di fonti e per la creazione di percorsi di studio.
Peraltro, a fronte di questi (e altri) vantaggi, i rischi strutturali legati a un uso eccessivo o distorto degli strumenti di AI sono molteplici e assai pericolosi.
Il rischio più grave: cognitive offloading
Le autrici sottolineano sei rischi, ai quali aggiungo io un settimo.
Cognitive offloading e impoverimento del critical thinking. Se le persone (e soprattutto i più giovani) si affidano in modo acritico e superficiale a quanto proposto dallo strumento automatico, perdono la capacità di comprendere il significato, i fondamenti concettuali e il razionale di ciò che osservano o fanno. Non solo ci troveremmo di fronte a persone che non saprebbero più fare nulla in assenza degli strumenti automatici, ma non avrebbero nemmeno le competenze né la capacità di valutarne i risultati, la loro affidabilità, la qualità e la pertinenza.
Indebolimento delle capacità di apprendimento, di resilienza e di gestione di situazioni inattese o rischiose. Una persona matura deve saper gestire situazioni inattese, mettersi alla prova su nuove sfide e in nuovi contesti, acquisire la resilienza – sì, lo so, è una parola spesso abusata ma qui ci vuole – e la capacità di problem solving e crisis management che la rendono realmente capace di operare in modo consapevole nelle dinamiche sociali e professionali.
Aumento irrealistico delle aspettative degli studenti. L’illusione di poter disporre, in modo gratuito e senza sforzo, di qualsiasi risultato o informazione alimenta in modo innaturale e pernicioso le aspettative degli studenti. È un’illusione estremamente pericolosa e dannosa perché abbassa le soglie di attenzione e di consapevolezza della complessità dei problemi.
Aumento delle possibilità di generare distorsioni e percezioni confuse sul rapporto tra l’umano e l’artificiale. Affidarsi in modo acritico a strumenti digitali crea nuovi tipi di dipendenze, come ci raccontano alcune cronache recenti.
Aumento del divario tra chi ha accesso a queste tecnologie e chi no. Anche se questi strumenti sono già ampiamente disponibili a chiunque disponga anche solo di uno smartphone, è indubbio che la possibilità e la capacità, o meno, di usare appieno queste tecnologie possono creare nuove forme di divario e di discriminazione.
Ulteriore erosione del trust nelle competenze e negli esperti. Già oggi l’uso superficiale e spesso malevolo di Internet ha alimentato un diffuso e pericoloso aumento della sfiducia, o addirittura del rifiuto, nei confronti della scienza, degli esperti e degli studiosi delle diverse materie.
A queste considerazioni ne aggiungo una settima, già più volte ricordata da molti osservatori e commentatori. Chi è responsabile delle scelte compiute dagli strumenti digitali? Può un computer o un chatbot essere ritenuto responsabile di un errore, di un’informazione errata o di un danno? Ovviamente no, ed è quindi evidente che alla fine bisogna necessariamente rivolgersi a chi ha creato, alimentato o gestito lo strumento o l’applicazione. Ciò non fa che innalzare ulteriormente la soglia di attenzione e di rischio nell’uso di questi strumenti e tecnologie.
Burns e Winthrop propongono tre modalità di intervento largamente condivisibili:
Un uso focalizzato e non generalizzato dell’AI. È vitale usare l’AI in modo mirato e focalizzato, e non come un factotum generalista, onniscente e onnipotente.
Investimenti in istruzione ed educazione. Le due parole vanno di pari passo, poiché non solo si riferiscono alla necessità di acquisire conoscenze e competenze, ma anche al bisogno di accrescere la maturità e la consapevolezza delle persone.
Poche, chiare regole e una costante presenza degli adulti. Se è indubbio che spesso, specialmente in Europa, viviamo un eccesso di regolazione, è altrettanto indubbio che alcune regole siano necessarie e che, nel caso dei più giovani, serva una presenza matura e dialogante da parte dei genitori e degli insegnanti.
Un problema di carattere generale
In realtà, l’uso delle tecnologie AI nei processi formativi e da parte dei giovani è solo un caso, particolarmente importante e critico, di un tema più ampio: il nostro rapporto con le tecnologie. Esso può essere vissuto in modo maturo, cioè come un potenziamento delle capacità e dell’ingegnosità delle persone oppure come un surrogato a cui delegare, in bianco o quasi, compiti che riteniamo non siano più di nostro interesse.
Storicamente, molte attività prima riservate solo all’uomo sono state via via rimpiazzate dall’innovazione tecnologica o, in generale, dal progresso del nostro modo di vivere e operare. Quindi, per certi versi, non dovrebbe sorprendere che l’avvento delle tecnologie e dei servizi digitali faccia sparire o automatizzi attività che fino a poco tempo fa erano svolte esclusivamente da esseri umani.
Ciò che deve allarmarci non è l’automazione o l’avvento di queste tecnologie, quanto il processo di depauperamento delle competenze dei singoli e la crescente illusione che non sia più necessario possedere certe conoscenze perché “tanto c’è l’AI”. È un rischio enorme perché qualunque sia il livello di automazione che riusciamo a raggiungere, i sette pericoli citati in precedenza continuano a persistere e, anzi, col tempo diventano sempre più gravi.
Un caso che mi interessa da vicino: l’ingegneria del software
Un caso che mi interessa particolarmente discutere ha a che fare con la disciplina che ho studiato per molti anni: l’ingegneria del software, cioè l’insieme di principi, metodi, pratiche e strumenti utilizzati per creare e gestire sistemi software complessi. Anche in questo settore, da tempo si è diffusa la convinzione che l’AI possa sostituire le persone, quanto meno nelle attività di coding e testing, che più si presterebbero all’automazione e alla gestione da parte di strumenti “intelligenti”.
In realtà, non è così o non è ancora così. Questo è un estratto di un recente articolo del MIT Technology Review:
But while some developers and companies report such productivity gains, the hard evidence is more mixed. Early studies from GitHub, Google, and Microsoft—all vendors of AI tools—found developers completing tasks 20% to 55% faster. But a September report from the consultancy Bain & Company described real-world savings as “unremarkable.”
Data from the developer analytics firm GitClear shows that most engineers are producing roughly 10% more durable code—code that isn’t deleted or rewritten within weeks—since 2022, likely thanks to AI. But that gain has come with sharp declines in several measures of code quality. Stack Overflow’s survey also found trust and positive sentiment toward AI tools falling significantly for the first time. And most provocatively, a July study by the nonprofit research organization Model Evaluation & Threat Research (METR) showed that while experienced developers believed AI made them 20% faster, objective tests showed they were actually 19% slower.
Un tema ancora più critico è affrontato in un articolo su Substack, in cui l’autore discute una questione essenziale: l’ingegneria del software è molto più della mera programmazione e del coding. Non basta generare in automatico tante linee di codice se prima non si sono affrontati e risolti problemi ben più delicati: la comprensione dei requisiti dell’utente (ingegneria dei requisiti) e la progettazione dell’architettura del sistema (system e module design).
È un tema che abbiamo iniziato ad affrontare nel nostro nuovo libro di testo sull’ingegneria del software e che affronteremo nella pubblicazione Substack dedicata ad esso.
Che fare quindi?
Queste considerazioni sintetiche non hanno certo l’ambizione di chiudere una discussione di valenza e respiro epocali. Esse invitano ad una grande prudenza e pacatezza nel valutare l’impatto delle tecnologie sulla nostra vita. In particolare, è necessario riposizionare correttamente il ruolo dell’AI nel rapporto che essa, come le altre tecnologie, ha con le persone. Le tecnologie dovranno essere sempre al servizio delle persone e non banalmente sostituirle. Anche quando le tecnologie fossero utilizzate per automatizzare compiti svolti in precedenza da esseri umani, dovrà sempre essere garantito che le persone “restino in controllo”, conoscano la logica con cui gli strumenti automatici operano, ne comprendano le dinamiche e i meccanismi di funzionamento, siano responsabili degli esiti e dei risultati prodotti. Non si tratta di evitare scenari apocalittici alla Terminator, quanto di sfruttare le straordinarie scoperte e invenzioni dell’ultimo secolo per metterle davvero al servizio delle nostre comunità e della società nel suo complesso.
Tutto ciò ha un profondo impatto sul mondo dell’istruzione, sia istituzionale sia aziendale, sulla cultura delle imprese, sulla comunicazione e sui media. Abbiamo bisogno di un salto di qualità che eviti banalizzazioni e sensazionalismo e ricollochi e riallinei aspettative, politiche pubbliche, comportamenti e la consapevolezza delle persone.






