OpenAI, la società californiana specializzata nello sviluppo di intelligenza artificiale e creatrice di ChatGPT, sta cercando un nuovo responsabile per la gestione dei rischi legati all'AI con uno stipendio annuo di 555.000 dollari più equity. L'annuncio arriva in un momento di crescente pressione sull'azienda riguardo alle questioni di sicurezza e agli effetti collaterali delle sue tecnologie, mentre il dibattito sulla priorità tra profitto e tutele si intensifica.
Il ruolo, definito "stressante" dallo stesso CEO Sam Altman in un post su X pubblicato sabato, rappresenta un segnale della crescente complessità nella gestione delle implicazioni sociali ed economiche dell'intelligenza artificiale. La cifra offerta, pur elevata per standard tradizionali, deve essere contestualizzata rispetto ai potenziali danni che l'azienda intende mitigare: perdita di posti di lavoro, diffusione di disinformazione, vulnerabilità nella sicurezza informatica, deterioramento della salute mentale degli utenti e erosione dell'autonomia umana.
La necessità di questa figura dirigenziale emerge mentre i modelli di AI sviluppati dalla società dimostrano capacità sempre più avanzate, ma anche rischi concreti. Altman ha sottolineato come i sistemi stiano iniziando a identificare vulnerabilità critiche nella sicurezza informatica e abbiano mostrato un'anteprima del loro impatto sulla salute mentale degli utenti già nel 2025. Quest'ultimo aspetto è particolarmente delicato: diversi casi hanno documentato come utenti utilizzino ChatGPT come alternativa alla terapia psicologica, con conseguenze che in alcuni casi hanno esacerbato condizioni preesistenti, incoraggiando comportamenti preoccupanti o deliri.
La questione della sicurezza rappresenta un punto di frizione crescente all'interno dell'organizzazione. Jan Leiki, ex leader del team di sicurezza poi dissolto, aveva annunciato le proprie dimissioni nel maggio 2024 denunciando come "la cultura e i processi di sicurezza siano passati in secondo piano rispetto a prodotti appariscenti". La sua critica metteva in discussione l'equilibrio tra la missione dichiarata di OpenAI - sviluppare intelligenza artificiale a beneficio dell'umanità - e le pressioni commerciali per monetizzare rapidamente le tecnologie.
Se il lavoro è ben pagato e molto stressante la ragione è semplice da capire: Altman sta cercando una persona per un lavoro impossibile. Perché per rendere l'AI sicura l'unica strada è ridurne le capacità, mettere dei limiti, accettare le richieste dei comitati e delle commissioni. In poche parole, fare meno soldi. Chi avrà questo lavoro dovrà prendere tutte queste istanze e farsi andare bene le decisioni contrarie del CdA, che ignorerà completamente la sicurezza in favore del profitto. Finirà per dimettersi ma almeno avrà un bel po' di contante e disposizione.
Le defezioni dal team di sicurezza si sono moltiplicate. Daniel Kokotajlo, altro ex dipendente, ha dichiarato a Fortune di aver rassegnato le dimissioni perché stava "perdendo fiducia" nel comportamento responsabile dell'azienda in vista dello sviluppo dell'AGI (Artificial General Intelligence), una forma teorica di intelligenza artificiale capace di ragionare al livello umano. Secondo Kokotajlo, il gruppo dedicato alla ricerca sulla sicurezza dell'AGI, inizialmente composto da circa 30 persone, si era ridotto di quasi la metà a causa delle uscite.
Il precedente responsabile della preparedness, Aleksander Madry, ha assunto un nuovo ruolo nel luglio 2024, lasciando scoperta una posizione che OpenAI definisce "critica in un momento importante". Il candidato selezionato dovrà coordinare valutazioni delle capacità dei modelli, modelli di minaccia e strategie di mitigazione, costruendo una pipeline di sicurezza coerente, rigorosa e operativamente scalabile.
La posizione fa parte del Safety Systems team, che sviluppa salvaguardie e framework di valutazione per i modelli dell'azienda. In ottobre, OpenAI aveva annunciato collaborazioni con professionisti della salute mentale per migliorare le interazioni di ChatGPT con utenti che mostrano comportamenti preoccupanti, inclusi segnali di psicosi o autolesionismo.
La cifra offerta per questa posizione - equivalente a circa 512.000 euro - riflette tanto l'urgenza quanto la difficoltà di bilanciare innovazione e responsabilità sociale. Resta da verificare se l'assunzione di un singolo dirigente, per quanto ben retribuito, possa davvero influenzare la traiettoria di un'organizzazione sotto crescente pressione per generare ritorni economici dagli investimenti miliardari ricevuti. La domanda cruciale rimane: può una struttura orientata al profitto auto-regolarsi efficacemente quando si tratta di tecnologie il cui impatto sulla società è ancora largamente sconosciuto?