Nel mondo della matematica competitiva, l'Olimpiade Internazionale di Matematica rappresenta da decenni la sfida più prestigiosa per giovani talenti provenienti da tutto il globo. Quest'anno, tuttavia, i protagonisti non sono stati soltanto studenti adolescenti armati di carta e penna, ma anche sofisticati sistemi di intelligenza artificiale che hanno raggiunto per la prima volta prestazioni da medaglia d'oro. Il traguardo, ottenuto dai modelli sperimentali di Google DeepMind e OpenAI, segna un momento storico che potrebbe ridefinire il rapporto tra macchine e ragionamento matematico avanzato.
La competizione che ha cambiato le regole del gioco
Durante l'edizione 2024 dell’IMO tenutasi nel Queensland, in Australia, si è consumata una rivoluzione silenziosa. Per la prima volta nella storia della competizione, diverse aziende tecnologiche hanno chiesto ufficialmente di sottoporre i propri modelli di IA alla valutazione dei giudici. Come spiega Gregor Dolinar, presidente dell'IMO, società come Google, Huawei e ByteDance hanno formalmente avanzato questa richiesta, accettando la condizione di attendere fino al 28 luglio per annunciare i risultati.
La performance di OpenAI si distingue per modalità e tempistiche particolari. Nonostante l’azienda avesse inizialmente mostrato interesse per una partecipazione ufficiale, ha poi scelto una strada autonoma, annunciando il 19 luglio che il proprio modello aveva risolto correttamente cinque dei sei problemi proposti, rispettando il limite di 4,5 ore. La valutazione è stata affidata a tre ex vincitori di medaglie IMO, conferendo comunque autorevolezza al risultato.
Due approcci, un obiettivo comune
Google DeepMind ha seguito un percorso differente con Gemini Deep Think, sistema che ha ottenuto la medaglia d’oro attraverso la valutazione ufficiale degli esaminatori IMO. Il risultato, confermato dallo stesso Dolinar, rappresenta un’evoluzione significativa rispetto ai modelli AlphaProof e AlphaGeometry utilizzati l’anno precedente, che si erano fermati al livello argento.
La differenza metodologica più rilevante risiede nell’approccio linguistico. Mentre i sistemi precedenti operavano tramite Lean, un linguaggio di programmazione specializzato che consentiva verifiche istantanee ma risultava ostico ai non esperti, entrambi i modelli attuali funzionano interamente in linguaggio naturale. Questa transizione, secondo Thang Luong di Google, promette soluzioni più comprensibili e applicabili a sistemi di IA di uso generale.
La scienza dietro il successo
Il reinforcement learning emerge come elemento chiave del successo di entrambi i sistemi. Questa metodologia di addestramento, che insegna all’IA cosa significhi “successo” lasciandola scoprire autonomamente regole e strategie attraverso tentativi ed errori, aveva già dimostrato la propria efficacia nei modelli di Google dedicati ai giochi, come AlphaZero. Luong sottolinea come il modello di Google implementi anche il “pensiero parallelo”, considerando simultaneamente soluzioni multiple e beneficiando di dataset matematici specificamente curati per l’IMO.
OpenAI mantiene invece un profilo più riservato sui dettagli tecnici, limitandosi a confermare l’utilizzo del reinforcement learning e di “metodi di ricerca sperimentali” non meglio specificati. Questa riservatezza alimenta parte dello scetticismo espresso dalla comunità matematica internazionale.
Scetticismo accademico e prospettive future
Terence Tao dell’Università della California a Los Angeles esprime una posizione cauta ma significativa: “Il progresso è promettente, ma non realizzato in modo scientificamente controllato”. Il matematico sottolinea la necessità di pubblicazioni dettagliate e accesso ai modelli per permettere la replicazione dei risultati, evidenziando come attualmente ci si debba fidare principalmente delle dichiarazioni delle aziende stesse.
Geordie Williamson dell’Università di Sydney condivide questa frustrazione per la mancanza di dettagli tecnici, pur riconoscendo la straordinarietà del momento storico. Joseph Myers, uno degli organizzatori dell’IMO 2024, solleva una questione ancora più profonda: se l’IA dovesse un giorno produrre soluzioni a problemi matematici irrisolti, la capacità di generare prove formali verificabili diventerà cruciale per distinguere tra progressi autentici ed errori sottili ma fatali.
L’orizzonte della ricerca scientifica
Entrambe le aziende promettono di rendere disponibili questi sistemi inizialmente ai matematici, per poi estenderne l’accesso al pubblico generale nei prossimi mesi. Junehyuk Jung di Google, che ha lavorato su Gemini Deep Think, si dimostra ottimista sulle applicazioni future: secondo il ricercatore, numerosi problemi scientifici irrisolti potrebbero presto trovarsi alla portata di questi strumenti avanzati.
Il dibattito rimane aperto sulla reale capacità di questi modelli di trasformare la ricerca matematica e scientifica. Mentre i risultati dell’IMO suggeriscono progressi impressionanti nel ragionamento matematico artificiale, la comunità accademica attende prove più concrete e trasparenti prima di pronunciarsi definitivamente su questa nuova era dell’intelligenza artificiale applicata alla matematica.