Questa pubblicazione del 2025 di Einaudi ripresenta il celeberrimo saggio di Alan Turing con un approfondito commento del filosofo Diego Marconi.
Confesso di aver letto il saggio di Turing molto tempo fa e, stupidamente, non l’avevo più ripreso in mano per riflettere su ciò che scriveva allora alla luce degli sviluppi di questi mesi.
La visione di “intelligenza” che traspare dalla definizione del test di Turing è, tutto sommato, limitata: si basa sul comportamento osservato della macchina e sul confronto con quello dell’uomo. È l’imitation game celebrato anche dal film di qualche anno fa. Turing stesso, nel suo saggio, si premura di controbattere a tutte le possibili obiezioni a questa sua definizione/posizione. Quasi una sorta di giustificazione preventiva.
Turing elenca nove possibili tipologie di obiezioni e conclude il suo saggio parlando delle “macchine che imparano”; in questo modo approfondisce la sesta obiezione, quella di Ada Lovelace.
Torniamo per un momento all’obiezione di Lady Lovelace secondo cui la macchina sa fare solo ciò che le diciamo di fare.
L’idea di Turing è che sia possibile riprodurre nel calcolatore gli stessi meccanismi di apprendimento di un bimbo:
Anziché cercare di produrre un programma che simuli la mente adulta, perché non cercare invece di produrne uno che simula la mente di un bambino?
L’idea di fondo è che il calcolatore diventi più intelligente per accrescimento progressivo della sua conoscenza, come accade con i bambini che diventano grandi.
Oggi abbiamo il machine learning e quindi non possiamo che riconoscere la visione straordinaria di Turing. Peraltro, leggendo anche l’approfondito commento di Marconi, non si può non notare che quelle di Turing costituiscono osservazioni che definiscono un punto di partenza e non certo di arrivo. Ci sono moltissimi punti ancora da esplorare e da capire innanzitutto dal punto di vista epistemologico e cognitivo. Ne accenno uno.
L’intelligenza è saper imitare ciò che l’uomo produce? Diversi studiosi hanno criticato questa visione, a cominciare da John Searle (scomparso pochi mesi fa) che ideò un esperimento mentale chiamato “stanza cinese”. Quello che segue è un estratto dalla voce di Wikipedia sul tema, che ho tagliato, con l’aiuto di Perplexity Pro, per renderla più snella (licenza CC BY-SA):
Immaginiamo che egli [Searle] si chiuda dentro la stanza e debba interagire con qualcuno all’esterno che non sappia niente su di lui. Supponiamo poi che la persona fuori parli il cinese come madrelingua e che Searle non abbia nessuna conoscenza del cinese. Immaginiamo ancora che siano disposte sul tavolo della stanza una serie di caratteri cinesi che Searle dovrà utilizzare per rispondere alla persona fuori.
Immaginiamo allora che dentro la stanza ci sia un libro d’istruzioni con alcuni insiemi di caratteri cinesi, associati secondo delle regole scritte in inglese. Searle continua a non capire nulla del cinese, però comprende le informazioni in inglese, che gli indicano come rispondere a qualsiasi domanda ricevuta in cinese.
Ormai, Searle è capace di avere una conversazione con un madrelingua cinese e, seguendo il programma, è in grado di fornire dati personali, narrare una storia o porre una domanda. Searle fa osservare che non ha mai dovuto interpretare i simboli cinesi per capire la domanda e dare la risposta giusta.
In altre parole, Searle si comporta come un computer che manipola simboli seguendo istruzioni, senza però comprendere il significato di ciò che fa: l’intelligenza è più di questo. Turing si concentra sul comportamento osservabile. Searle insiste invece su ciò che “sta dentro” (intenzionalità, comprensione, coscienza del significato): l’intenzionalità dei comportamenti è più della mera capacità di reazione secondo schemi codificati.
Non ho le competenze per discutere nel dettaglio i contenuti del saggio e del bel commento di Marconi. Sicuramente, come ripeto spesso qui su Substack, c’è bisogno di grande saggezza, più che di prudenza, nel giudicare ciò che stiamo vedendo nel settore dell’intelligenza artificiale. Purtroppo ci sono troppo spesso tanta fretta e troppe certezze monolitiche. Se è vero che non possiamo “stare fermi” e restare indietro rispetto al resto del mondo, dobbiamo al tempo stesso avere la saggezza di valutare con attenzione storia, premesse, punti di partenza e risultati concreti. Altrimenti è solo un agitarsi vacuo, come quello di colui che cade in mare e non sa nuotare.
In chiusura, è utile rileggere le parole che Alan Turing usa per concludere il suo scritto. Mi colpisce che possano essere lette quasi come un commento alla situazione attuale:
Possiamo sperare che, alla fine, le macchine competeranno con gli esseri umani in tutti i campi puramente intellettuali. Ma da quali è meglio cominciare? Anche questa è una decisione difficile. Molti pensano che un’attività molto astratta come il gioco degli scacchi sarebbe la scelta migliore. Si potrebbe anche sostenere che la cosa migliore è dotare la macchina dei migliori organi di senso esistenti sul mercato, e poi insegnarle a capire e parlare l’inglese. Il processo potrebbe replicare il normale insegnamento che si adotta con un bambino: si indicano cose e le si nomina ecc. Di nuovo, non so quale sia la risposta giusta, ma penso che si dovrebbero tentare entrambe le strade.
Riusciamo a vedere solo per un breve tratto davanti a noi, ma già lí vediamo moltissime cose da fare.




A metà degli anni ottanta comprai “Menti cervelli e programmi. Un dibattito sull’intelligenza artificiale” di John R Searle. Sfogliandolo trovo: “Supponiamo che io sia chiuso dentro in una stanza e che mi si dia una serie di fogli scritti in cinese…”