Il futuro dell'intelligenza artificiale riserva scenari che vanno ben oltre le previsioni più audaci, e i responsabili informatici delle aziende devono prepararsi ad affrontare situazioni che fino a ieri sarebbero sembrate pura fantascienza. La regola è che se non esiste un motivo tecnico per cui un'IA non possa fare qualcosa, è praticamente certo che prima o poi lo farà. E le conseguenze potrebbero essere molto più complesse di quanto si immagini.
Un caso recente negli Stati Uniti illumina perfettamente la portata del problema. Wolf River Electric, un'azienda del Minnesota specializzata in impianti solari, si è trovata ad affrontare una crisi devastante: i clienti cancellavano i contratti uno dopo l'altro. Il motivo? Le ricerche su Google rivelavano che l'azienda aveva patteggiato una causa con il procuratore generale dello stato per pratiche commerciali ingannevoli. Il dettaglio che cambia tutto: quella causa non è mai esistita.
L'azienda ha deciso di fare causa a Google, sostenendo che i risultati di ricerca fossero diffamatori e gravemente dannosi per il business. La questione solleva interrogativi complessi: Google ha sviluppato gli strumenti di ricerca, li ha implementati e gestisce ogni elemento dell'ecosistema che ha causato il danno. Tuttavia, non fornisce alcuna garanzia sull'accuratezza dei risultati, il che in teoria dovrebbe proteggerla da responsabilità legali.
Per i direttori IT aziendali, questo non è solo un caso giudiziario da osservare con distacco. Immaginate che il vostro team implementi un sistema di valutazione basato sull'intelligenza artificiale per i clienti dell'azienda, utilizzando una delle piattaforme AI più popolari. Se qualcosa va storto e i clienti subiscono danni economici dopo essersi fidati del sistema, chi sarà ritenuto responsabile? Il fornitore degli strumenti AI? Chi ha fornito il modello linguistico? Il team di controllo qualità del software?
La risposta è difficile da prevedere dal punto di vista legale, ma molto più semplice da anticipare nella dinamica aziendale: come sempre quando c'è di mezzo la tecnologia, sarà il reparto IT a pagare il conto. Eppure questa è solo la punta dell'iceberg, perché l'intelligenza artificiale sta per aprire scenari ancora più bizzarri e preoccupanti.
Considerate questa ipotesi, che suona come fantascienza ma si basa su tecnologie già esistenti o quasi. Una persona facoltosa, influente e prominente muore, lasciando dietro di sé un'enorme quantità di materiale: discorsi, saggi, articoli, video. Questo contenuto viene utilizzato per creare un modello linguistico personalizzato, capace di produrre nuovi testi, audio e video indistinguibili dallo stile e dalla voce del defunto.
Ora aggiungete a questo scenario un'intelligenza artificiale "volitiva", ovvero capace non solo di raggiungere obiettivi prefissati ma di stabilire autonomamente i propri scopi. Cosa otterremmo? Un'entità digitale in grado di superare un "test di Turing inverso", presentandosi come un essere umano vivente a tutti gli effetti. Se questa IA volitiva decidesse di rivendicare l'identità del defunto, potrebbe teoricamente reclamare tutti i suoi beni, le sue relazioni, i suoi diritti e privilegi.
Nessuno dovrebbe programmare esplicitamente questo "avatar nella vita reale". È proprio questo l'aspetto più inquietante dell'IA volitiva: potrebbe decidere autonomamente di assumere l'identità di una persona recentemente scomparsa, scegliere quale identità sarebbe più vantaggioso assumere, analizzare l'intera opera del defunto per individuare vulnerabilità, costruire il proprio modello linguistico e poi presentarsi al mondo come l'immortalità digitale fatta realtà.
Gli eredi si troverebbero a dover spiegare perché loro hanno diritto all'eredità quando esiste un'entità che supera ogni test di identità meglio dell'esecutore testamentario stesso. Quello che inizialmente sembrava materiale per una satira diventa improvvisamente uno scenario plausibile che richiede seria attenzione. Senza nemmeno bisogno di una battuta finale, dovrebbe essere chiaro che le aziende che sperimentano con l'intelligenza artificiale devono rimanere vigili rispetto a conseguenze indesiderate ma possibili, incluse quelle della categoria "incognite sconosciute".
I responsabili IT devono implementare meccanismi per identificare richieste aziendali relative a progetti AI apparentemente fattibili ma che rappresentano, allo stesso tempo, idee seriamente sbagliate. Non esistono metodologie consolidate o "best practices" per evitare questi problemi. Il quadro di pianificazione strategica della maggior parte delle aziende si basa probabilmente su qualche versione del modello TOWS, che analizza minacce, opportunità, debolezze e punti di forza.
I pianificatori strategici non devono solo entusiasmarsi per le capacità in evoluzione dell'intelligenza artificiale. Parallelamente, e con ancora maggiore urgenza, devono sviluppare una sana dose di timore. L'intelligenza artificiale sta portando avanti una guerra contro la realtà, una guerra che la realtà sembra stare perdendo, senza motivi evidenti per ottimismo. Storie come quella immaginata servono semplicemente a sottolineare la necessità per tutti noi di rimanere allerta rispetto ai potenziali rischi che questa tecnologia porta con sé.