OpenAI ha presentato ChatGPT Salute. Si tratta di una nuova esperienza dedicata che integra le informazioni sanitarie degli utenti con le capacità analitiche dei modelli linguistici per supportare la gestione del benessere personale. Il servizio è attualmente accessibile tramite una lista d'attesa ed è limitato al mercato statunitense per quanto riguarda le integrazioni più profonde.
Difficilmente lo vedremo presto in Europa, dove le norme sulla tutela dei dati personali renderebbe particolarmente difficile accedere e usare legalmente quei dati.
L'iniziativa risponde a una necessità pratica legata alla frammentazione dei dati medici, spesso dispersi tra portali differenti, applicazioni di fitness e documenti cartacei. Offrendo un unico punto di accesso, OpenAI mira a trasformare ChatGPT in uno strumento capace di interpretare analisi del sangue, riassumere note mediche e suggerire routine di allenamento basate sul contesto individuale del soggetto. L'azienda sottolinea che il sistema è progettato per affiancare, e non sostituire, il parere dei professionisti sanitari, evitando esplicitamente di fornire diagnosi o trattamenti medici diretti.
Il tema in effetti esiste, e anche in Italia non è affatto facile raccogliere in un unico punto tutte le informazioni sanitarie su una persona. Eppure sarebbe più che utile mettere insieme lo storico delle analisi e delle visite mediche, i dati dei tracker e delle app. Non è certo obbligatorio, poi, darli a un chatbot.
Quanto a ChatGPT, l’applicazione parte con una base di utenti già molto popolata. Ogni settimana, oltre 230 milioni di persone utilizzano già la versione standard del chatbot per quesiti legati al benessere, un dato che ha spinto OpenAI a creare uno spazio isolato. Questa sezione dedicata utilizza memorie separate che non comunicano con le chat generiche, garantendo che i dati sensibili restino confinati all'interno del perimetro sanitario. Le informazioni caricate, inoltre, non vengono utilizzate per l'addestramento dei modelli di base, cercando di rassicurare un'utenza comprensibilmente preoccupata per la gestione della propria privacy.
La collaborazione con oltre 260 medici professionisti provenienti da 60 paesi diversi ha permesso di definire un framework di valutazione chiamato HealthBench. Questo sistema verifica l'accuratezza delle risposte e valuta la sicurezza clinica e la capacità del modello di suggerire il ricorso a un medico quando necessario. L'integrazione tecnica negli Stati Uniti avviene tramite la rete b.well, che permette di collegare cartelle cliniche elettroniche (EHR) e applicazioni popolari come Apple Salute, MyFitnessPal e AllTrails.
Sul piano tecnico, sebbene i dati siano crittografati, le chiavi di accesso rimangono nelle mani dell'azienda, il che espone le conversazioni a potenziali richieste da parte di autorità governative o procedimenti giudiziari. Esiste inoltre il rischio della propensione alla compiacenza dei modelli, che potrebbero fornire risposte rassicuranti ma clinicamente pericolose per l'utente.
Infrastruttura di sicurezza e rischi etici
Nonostante le rassicurazioni, il progetto deve fare i conti con almeno nove cause legali pendenti contro OpenAI, relative a potenziali danni alla salute mentale derivanti dalle interazioni con l'IA. I problemi finora non sono mancati, e al momento non c’è ragione di pensare che OpenAI li abbia risolti.
Un caso studio del 2024 ha evidenziato come un uomo abbia ritardato il trattamento per un attacco ischemico transitorio dopo aver ricevuto una valutazione "tranquillizzante" da ChatGPT. Questo fenomeno, definito bias di soddisfazione, mette in luce il pericolo che l'utente preferisca una spiegazione comprensibile ma errata rispetto a una diagnosi medica complessa. Mentre l'intelligenza artificiale si dimostra un eccellente alleato nell'ottimizzazione dei processi di business e nella gestione dei dati aziendali, l'applicazione al settore clinico richiede una cautela superiore.
OpenAI ha strutturato l'interfaccia web includendo una voce "Salute" nella barra laterale, permettendo il caricamento di foto e file, nonché l'uso della modalità vocale per descrivere i sintomi. Tuttavia, la disponibilità di strumenti di Deep Research applicati ai dati clinici personali solleva dubbi sulla capacità dell'utente di filtrare correttamente gli output generati.
L'adozione di massa di strumenti simili potrebbe portare a una de-responsabilizzazione del paziente, attratto dalla gratuità e dall'immediatezza del software rispetto ai tempi lunghi della sanità pubblica o ai costi di quella privata.
Allo stesso tempo, i paesi dove esiste un Sistema Sanitario Nazionale gestito con denaro pubblico, hanno un gran bisogno di soluzioni che permettano di garantire il Diritto alla Salute a tutti i cittadini, ma allo stesso tempo eliminare le inefficienze e ottimizzare i costi. Quindi, comprensibilmente, i sistemi AI sembrano molto invitanti anche per gli amministratori, non solo per il pubblico.
Sebbene la strategia di OpenAI preveda la trasformazione digitale del rapporto medico-paziente, resta da vedere come verranno gestite le allucinazioni del modello in contesti dove l'errore può avere conseguenze letali. La trasparenza sull'accesso ai dati da parte dei partner terzi rimane un punto opaco, nonostante le clausole di riservatezza dichiarate.
L'ingresso di OpenAI nel mercato della salute appare come un nuovo tentativo di monetizzare la fiducia degli utenti attraverso la gestione di asset informativi critici. La promessa di una gestione "più attiva" della propria salute nasconde il rischio di una sorveglianza biometrica costante, dove ogni dato inserito contribuisce a profilare lo stato di benessere dell'individuo. La distinzione tra consiglio e diagnosi è un confine sottile che l'utente, spesso in cerca di rassicurazioni immediate, tende a ignorare sistematicamente.
In ultima analisi, ChatGPT Salute sembra configurarsi più come uno strumento di supporto amministrativo e interpretativo per pazienti già seguiti da professionisti, piuttosto che come un vero consulente sanitario. La vera sfida non risiede nella capacità dell'IA di leggere un referto, ma nell'integrità del sistema che gestisce tali informazioni. Senza una regolamentazione ferrea e una chiara attribuzione di responsabilità in caso di errore, l'affidamento a simili piattaforme rimane una scommessa rischiosa sulla propria incolumità.