ChatGPT ha fatto una scoperta scientifica?
Dobbiamo imparare ad andare oltre gli annunci ad effetto e separare il grano dalla zizzania.

Una delle notizie di questi giorni è che GPT-5.2 avrebbe fatto una scoperta scientifica nel campo della Fisica.
Allora chiedo a Perplexity Pro se è vero che c’è stata questa scoperta. Ecco la risposta:
Sì, è vero che OpenAI ha recentemente fatto una scoperta scientifica significativa. Il 13 febbraio 2026, OpenAI ha annunciato che il suo modello GPT-5.2 Pro ha derivato con successo una formula innovativa per le ampiezze di scattering dei gluoni, un problema matematico complesso nella fisica teorica che gli esperti ritenevano intrattatile.[creati]
La scoperta scientifica
GPT-5.2 ha utilizzato un’architettura avanzata chiamata “Chain of Reasoning” per identificare una formula compatta e ricorsiva che descrive l’interazione tra gluoni ad alti livelli di energia. Invece di calcolare milioni di diagrammi di Feynman con metodi tradizionali, il modello ha individuato una simmetria nella teoria di gauge che i fisici avevano completamente trascurato. La dottoressa Elena Rossi del CERN, che ha collaborato alla fase di verifica, ha dichiarato: “Inizialmente abbiamo trattato l’output del modello come un’allucinazione. Sembrava troppo semplice per essere vero. Ma quando abbiamo eseguito la verifica simbolica su risultati noti di ordine inferiore e simulazioni numeriche, corrispondeva perfettamente”.[creati]
Implicazioni pratiche
Questa scoperta ha applicazioni immediate per il Large Hadron Collider (LHC), che produce petabyte di dati dalle collisioni di particelle. La nuova formula permette ai ricercatori di calcolare i tassi di background con precisione e velocità senza precedenti, aumentando di fatto la sensibilità del LHC senza dover costruire un collisore più grande. Il dottor Marcus Chen dell’Institute for Advanced Study ha paragonato l’impatto all’aggiornamento della lente di un telescopio.[creati]
Il contesto più ampio
Questo evento rappresenta una transizione dall’”AI generativa”, che crea contenuti basati su dati esistenti, all’”AI di scoperta creativa”, che genera nuova conoscenza. OpenAI aveva già predetto nel gennaio 2026 che il 2026 sarebbe stato l’anno della svolta per l’IA nella scienza, dopo che nel 2025 l’IA aveva trasformato l’ingegneria del software.technologyreview+2
P.S.: in un prossimo post parlo dell’ingegneria del software…
Comunque, “AI di scoperta creativa”!
Notate, peraltro, che la risposta inizia dicendo “Sì, è vero che OpenAI ha recentemente fatto una scoperta scientifica significativa.” e poi aggiunge “OpenAI ha annunciato che il suo modello GPT-5.2 Pro ha derivato con successo una formula innovativa…”.
Ci possono essere due reazioni a questa notizia:
Ci credo senza farmi domande.
Mi viene il dubbio è verifico.
Io ho provato il 2.
In primo luogo vedo il tweet di uno che conoscevo già da precedenti commenti che dice che non è così.
Pochi giorni fa è uscito un commento secondo il quale gli strumenti di GenAI, se fai loro challenge, spesso cambiano idea.
Allora torno da Perplexity e chiedo: “Ma i critici dicono che non é vero.” Questa la risposta:
Hai ragione a sollevare questo punto: ci sono diverse critiche e perplessità nella comunità scientifica riguardo alla portata di questa scoperta.news.ycombinator+1
Le principali obiezioni dei critici
Il lavoro era già stato fatto negli anni ‘80: Alcuni esperti su Hacker News sostengono che questo risultato fosse già stato sostanzialmente risolto nel 1986 in un articolo pubblicato su Physical Review Letters, menzionando le “MHV amplitudes” (Maximum Helicity Violating amplitudes).openai+1
Il ruolo limitato dell’IA: I critici sottolineano che GPT-5.2 non ha fatto una vera “scoperta autonoma”. In realtà, gli autori umani hanno calcolato manualmente le ampiezze per valori interi di n fino a n=6, ottenendo espressioni molto complicate. GPT-5.2 ha poi semplificato queste espressioni e individuato un pattern per generalizzarle a tutti gli n. Sostanzialmente, l’IA ha “refactorizzato” formule esistenti e le ha generalizzate.openai+1
Guidato da esperti umani: La scoperta non è stata spontanea ma richiede prompt e supervisione di esperti nel campo. Come nota un commentatore: “La realtà è: ‘GPT 5.2 dopo aver elaborato per 12 ore formule matematiche supervisionato e guidato da 4 esperti nel campo’”. Il modello è stato utilizzato in una versione “scaffolded” (strutturata) interna per 12 ore di ragionamento.openai+1
La posizione ufficiale di OpenAI
OpenAI riconosce il processo collaborativo: gli autori umani (da istituzioni prestigiose come Harvard, Cambridge, Institute for Advanced Study e Vanderbilt University) hanno lavorato a stretto contatto con GPT-5.2. Il preprint è firmato da fisici teorici affermati, con Kevin Weil di OpenAI “a nome di OpenAI”. L’IA ha proposto la formula, che è stata poi verificata analiticamente risolvendo la relazione di ricorsione di Berends-Giele e confrontata con il “soft theorem”.[openai]
La questione centrale rimane: GPT-5.2 è stato uno strumento sofisticato nelle mani di esperti o un vero “scopritore”? I critici propendono per la prima interpretazione, mentre OpenAI enfatizza il contributo significativo dell’IA nel pattern recognition e nella semplificazione matematica.
Qui il link al thread delle mie domande che si conclude così:
Tuttavia, il nucleo della critica rimane valido: le formule fondamentali per le ampiezze di scattering dei gluoni, particolarmente nella configurazione MHV, erano già note e pubblicate nella letteratura scientifica dal 1986.
Si dirà: ma semplificare una equazione matematica è comunque una cosa importante.
Certamente, ma prima di GenAI si poteva fare?
Chiedo a Perplexity Pro: “Esistono sistemi automatici non basasti su GenAI per semplificare equazioni matematiche complesse e come si confrontano queste due tecnologie?”
Ecco la risposta. Ho messo in bold le conclusioni:
Sì, esistono da decenni sistemi automatici non basati su GenAI per semplificare espressioni anche molto complesse: sono i cosiddetti Computer Algebra Systems (CAS), e si basano su algoritmi simbolici deterministici, molto diversi dai modelli generativi neurali.wikipedia+2
Cosa sono i sistemi “classici” (CAS)
I CAS (Mathematica, Maple, Maxima, Sympy, il toolbox simbolico di MATLAB, ecc.) lavorano su espressioni in forma simbolica e applicano regole di riscrittura e algoritmi esatti.mathworks+1
Operazioni tipiche:
Semplificazione algebrica (es. sin2x+cos2x→1sin2x+cos2x→1, riduzione di frazioni, raccolta di fattori).mathworks+1
Cambi di forma: espansione, fattorizzazione, frazioni parziali, riscrittura trigonometrica, ecc.wikipedia+1
Calcolo simbolico avanzato: derivate, integrali, soluzione di equazioni e sistemi, manipolazione di espressioni enormi.davidhbailey+1
Questi sistemi usano algoritmi matematici ben specificati (es. PSLQ, metodi per integrazione simbolica) e il risultato è garantito corretto se l’algoritmo termina.arxiv+1
Come funziona invece la GenAI sulle espressioni
I modelli neurali (transformer, LLM, ecc.) trattano l’espressione come una sequenza di simboli e “imparano” per esempi a trasformarla in una forma desiderata, ad esempio integrale, soluzione di un’ODE o forma semplificata.alphaxiv+1
Proprietà tipiche:
Sono approssimativi: possono dare la risposta giusta molto spesso, ma non c’è garanzia matematica di correttezza.arxiv+1
Possono superare i CAS su certi compiti specifici se ben addestrati (es. integrazione simbolica su un certo dataset), ma di solito serve un controllo esterno per verificare il risultato.openreview+1
Si comportano bene su pattern già visti; fuori distribuzione possono sbagliare in modo sottile ma grave dal punto di vista matematico.alphaxiv+1
[…]
Quando usare cosa
Per semplificare o trasformare espressioni in modo affidabile (studio di funzioni, dimostrazioni, implementazione di algoritmi numerici) la scelta naturale è un CAS classico, proprio perché fornisce risultati esatti e riproducibili.mathworks+2
I modelli GenAI sono utili come “strato esterno”: proporre strategie, scegliere tra più algoritmi del CAS, o generare tentativi che poi vengono verificati e, se necessario, rifiniti dal CAS stesso.towardsdatascience+2
Un’architettura molto discussa oggi è proprio la combinazione: CAS simbolico per la parte rigorosa, modello neurale per guidare scelte o per esplorare rapidamente molte trasformazioni possibili.arxiv+2
Che è quello che sta succedendo nell’uso di GenAI per migliorare i modelli di simulazione. Un esempio: https://www.physicsx.ai
In sintesi (quoto Perplexity Pro):
Sì, in linea di principio le stesse semplificazioni potevano (e possono) essere fatte anche con i normali sistemi di algebra computazionale (CAS) come Mathematica, FORM, Maple, ecc.
Morale
Io non sono un fisico e non sono un esperto in AI. Il mio obiettivo non è contestare il valore di GenAI o discutere di questioni di fisica che non capisco. Io metto in discussione queste modalità di comunicazione che sono un danno per tutti, a cominciare da chi fa GenAI.
Sono convinto che GenAI possa avere applicazioni fantastiche. La uso quotidianamente. Ma una cosa è un uso consapevole, altro è accettare acriticamente qualunque cosa venga detta.
Per usare una immagine biblica, dobbiamo “separare il grano dalla zizzazia”.
O anche, ricordare quel che si dice in questo video che trovo emblematico:








Leggo sempre con piacere e, direi anche, soddisfazione i suoi post proprio perché mi ritrovo in un modo di pensare e di approcciare la questione AI. Dovrebbe essere scolpito nella pietra, o nel DNA di ogni individuo, che bisogna sempre farsi una domanda (ma anche due?) ogni volta che leggiamo un titolo di articolo, sentiamo una notizia: “sarà veramente così?”; “potrebbero aver travisato la notizia”. Non per pure complottismo o malafede. No, per arricchimento personale, perché solo dubitando (in primis, noi stessi) possiamo
imparare a osservare e pensare alla realtà.
🤣🤭😊🙂😏...devo essere sincero, ho saltato la parte centrale del post per ovvi motivi di ignoranza, ma le posso assicurare che anch'io utilizzo gli stessi metodi dubbiosi quando utilizzo Gemini (free), per esempio mi accade quando cerco informazioni per il settaggio dei miei dispositivi dedicati alla riproduzione musicale, è "divertente" leggere la risposta affermativa convinta e poco dopo la mia negazione, e a volte capita, un mio suggerimento, la correzione altrettanto sicura ma altrettanto sbagliata... 🤭. Naturalmente Le chiedo scusa se ho abbassato il livello di conversazione tecnica, ma il senso credo sia lo stesso, la zizzania si confonde spesso e volentieri tra il grano, e chi non ha i mezzi per riconoscere finisce per falciare anche il grano, che naturalmente rappresenta il benessere. Grazie ancora per lo spunto di riflessione.