Anche Apple ha vietato l’uso di ChatGPT, cosa teme?

Apple ha preso una posizione severa sull'uso di strumenti di intelligenza artificiale esterni, tra cui ChatGPT e Bard.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

Apple ha preso una posizione severa sull'uso da parte dei suoi dipendenti di strumenti di intelligenza artificiale esterni, tra cui ChatGPT e Bard. La decisione del gigante tecnologico arriva alla luce delle preoccupazioni per le potenziali fughe di informazioni riservate sui futuri prodotti e piani di Apple.

Questa mossa riflette le crescenti sfide e i rischi associati all'intelligenza artificiale, in particolare in termini di privacy, sicurezza, etica e regolamentazione.

ChatGPT, sviluppato da OpenAI, è un sofisticato modello linguistico in grado di generare testi coerenti e realistici sulla base di una richiesta o di un contesto. Dal suo lancio nel novembre 2022, milioni di persone hanno utilizzato ChatGPT, servizio ora disponibile come app sull'App Store e tramite la chat di Bing. Bard, uno strumento di intelligenza artificiale simile sviluppato da Google, è stato rilasciato nel gennaio 2023 ad un gruppo selezionato di utenti, ma dal Google I/O 2023 è in più ampia diffusione.

Secondo documenti interni e fonti anonime, Apple ha messo al bando l'uso di ChatGPT e di altri strumenti di intelligenza artificiale da parte dei suoi dipendenti. L'azienda teme che questi strumenti possano inavvertitamente rivelare informazioni sensibili relative a prodotti, strategie, brevetti o segreti commerciali di Apple. Rinomata per la sua segretezza e lo stretto controllo sulle comunicazioni interne, Apple mira a mantenere il suo vantaggio competitivo e a proteggere la sua proprietà intellettuale.

Secondo quanto riferito, Apple starebbe lavorando allo sviluppo di una propria versione di un LLM (Large Language Model), ma i dettagli relativi a questo progetto non sono stati resi noti.

Il divieto di usare ChatGPT e di altri strumenti di intelligenza artificiale da parte di Apple evidenzia la necessità di affrontare le sfide associate all'intelligenza artificiale. Se da un lato questi strumenti possiedono una grande potenza e utilità, dall'altro pongono rischi significativi per quanto riguarda la protezione dei dati, la proprietà intellettuale, la disinformazione, i pregiudizi e la dignità umana. La salvaguardia della privacy, la garanzia di un uso etico e l'implementazione di normative adeguate sono fondamentali per sfruttare il potenziale dell'IA e mitigare i potenziali danni.

L'Unione Europea ha già proposto una serie di regole per un'IA affidabile, che richiedono trasparenza, responsabilità, supervisione umana e rispetto dei diritti umani. Allo stesso modo, l'autorità di regolamentazione dei dati del Regno Unito ha espresso il proprio sostegno all'innovazione dell'IA, impegnandosi al contempo a contestare la non conformità con le norme di legge.