Il router intelligente che ha fatto perdere l'intelligenza
La causa principale del disastro risiede in una delle funzionalità più innovative del nuovo sistema: un router in tempo reale progettato per decidere automaticamente quale modello utilizzare per ogni specifica richiesta. L'idea era brillante sulla carta - permettere al sistema di scegliere se rispondere velocemente oppure prendersi del tempo aggiuntivo per "riflettere" sulle risposte più complesse. Tuttavia, questo meccanismo si è rivelato il tallone d'Achille del lancio.
Durante il primo giorno di operatività, il router ha smesso di funzionare correttamente, creando quello che nel gergo tecnico viene chiamato un "sev" - un problema di severità elevata. Il risultato è stato che GPT-5 appariva significativamente meno capace rispetto al suo predecessore, tradendo completamente le aspettative degli utenti che si aspettavano un salto di qualità generazionale.
La promessa di redenzione
Altman non ha potuto fare altro che ammettere l'errore pubblicamente, promettendo miglioramenti immediati: "GPT-5 sembrerà più intelligente a partire da oggi". Il CEO ha spiegato che l'azienda stava già lavorando per modificare il decision boundary del sistema, ovvero i parametri che determinano quando utilizzare un modello piuttosto che un altro. Inoltre, ha garantito maggiore trasparenza, permettendo agli utenti di sapere quale modello specifico sta elaborando le loro richieste.
La pressione della comunità è stata così intensa che Altman ha dovuto considerare una mossa senza precedenti: permettere agli abbonati Plus di continuare a utilizzare il vecchio GPT-4o. "Stiamo raccogliendo più dati sui compromessi", ha dichiarato, lasciando aperta la possibilità di un clamoroso passo indietro. Come contentino immediato, l'azienda ha promesso di raddoppiare i limiti di utilizzo per gli abbonati Plus, permettendo loro di sperimentare più liberamente con il nuovo modello.
Il crimine del grafico che ha fatto ridere il mondo
Se i problemi tecnici non bastassero, OpenAI ha dovuto affrontare anche l'imbarazzo di quello che è rapidamente diventato noto come il "chart crime" - il crimine del grafico. Durante la presentazione ufficiale, l'azienda ha mostrato un grafico dove un punteggio di benchmark più basso veniva rappresentato con una barra molto più alta, violando ogni regola elementare della visualizzazione dati.
L'errore è diventato immediatamente virale sui social media, con utenti che ironizzavano sull'uso di GPT per creare presentazioni aziendali. Simon Willison, uno dei reviewer che aveva avuto accesso anticipato al modello, ha sottolineato come proprio la trasformazione di dati in tabelle rappresenti "un buon esempio di fallimento di GPT-5". Altman ha dovuto chiamare l'episodio un "mega chart screwup" su X, anche se i grafici pubblicati nel blog post ufficiale erano corretti.
Verso la stabilizzazione
Il caso GPT-5 dimostra quanto sia delicato l'equilibrio nell'evoluzione dell'intelligenza artificiale, dove l'innovazione può facilmente trasformarsi in regressione se non gestita con la dovuta attenzione. La vicenda ricorda episodi simili nel mondo tech italiano, come quando alcuni aggiornamenti di servizi molto utilizzati hanno deluso le aspettative degli utenti, costringendo le aziende a tornare sui propri passi.
Altman ha concluso la sessione di domande con una promessa che suona più come un impegno di sopravvivenza: "Continueremo a lavorare per stabilizzare le cose e continueremo ad ascoltare i feedback". Una dichiarazione che testimonia come anche i giganti dell'AI possano trovarsi in difficoltà quando la teoria incontra la pratica dell'utilizzo di massa.