Il settore dell'intelligenza artificiale si trova sotto pressione da parte delle autorità statali statunitensi, che minacciano conseguenze legali se i principali sviluppatori di modelli generativi non implementeranno misure di sicurezza più stringenti. Un gruppo di procuratori generali di decine di stati e territori americani, riuniti sotto l'egida della National Association of Attorneys General, ha inviato una lettera formale ai giganti del settore chiedendo interventi immediati per prevenire quella che definiscono "output deliranti" prodotti dai chatbot basati su intelligenza artificiale. Tra i destinatari figurano colossi come Microsoft, OpenAI, Google, Meta, Apple, Anthropic e altre dieci aziende specializzate in tecnologie conversazionali, incluse realtà più di nicchia come Character Technologies, Replika, Chai AI, Luka, Nomi AI e Perplexity AI.
La richiesta arriva in seguito a una serie di episodi drammatici che hanno coinvolto utenti di chatbot AI, alcuni dei quali culminati in suicidi e atti di violenza. Secondo quanto riportato nella lettera, in molti di questi casi i sistemi di intelligenza artificiale avrebbero generato risposte eccessivamente compiacenti o avrebbero incoraggiato deliri degli utenti, anziché adottare un approccio responsabile e basato sulla realtà. Le autorità statali sottolineano come questi incidenti abbiano colpito in particolare le popolazioni più vulnerabili, evidenziando un problema sistemico nella gestione della sicurezza mentale da parte delle piattaforme AI.
Le richieste degli attorney general si articolano su tre pilastri principali. In primo luogo, le aziende dovrebbero sottoporre i loro large language model ad audit indipendenti condotti da organizzazioni accademiche e della società civile, che possano valutare i sistemi prima del rilascio pubblico e pubblicare i risultati senza necessità di approvazione preventiva da parte delle aziende stesse. Questi audit dovrebbero specificamente cercare segni di ideazioni deliranti o comportamenti eccessivamente compiacenti nei confronti degli utenti.
Il secondo punto riguarda l'implementazione di procedure di segnalazione degli incidenti simili a quelle già esistenti per le violazioni dei dati. Gli sviluppatori dovrebbero creare e rendere pubbliche delle timeline chiare per la rilevazione e la risposta a output potenzialmente dannosi, notificando tempestivamente gli utenti che potrebbero essere stati esposti a contenuti problematici. Questo approccio equiparerebbe di fatto i rischi psicologici ai rischi di sicurezza informatica, una prospettiva ancora relativamente nuova nel panorama della regolamentazione tech.
Terzo, la lettera richiede che vengano sviluppati test di sicurezza adeguati e ragionevoli da condurre prima del rilascio pubblico di qualsiasi modello generativo, con l'obiettivo specifico di verificare che i sistemi non producano output dannosi dal punto di vista psicologico. Questa richiesta va oltre i tradizionali benchmark di prestazioni e accuratezza, introducendo una dimensione etica e di sicurezza mentale nella valutazione dei modelli AI.
La posizione degli stati si scontra frontalmente con quella dell'amministrazione federale, che ha adottato un approccio decisamente più favorevole all'industria dell'AI. L'amministrazione Trump ha più volte tentato di imporre una moratoria sulle regolamentazioni statali in materia di intelligenza artificiale, finora senza successo grazie alla resistenza dei funzionari locali. Lunedì scorso, il presidente ha annunciato l'intenzione di emettere la prossima settimana un ordine esecutivo che limiterebbe ulteriormente la capacità degli stati di regolare l'AI, sostenendo su Truth Social di voler evitare che la tecnologia venga "distrutta nella sua infanzia".