image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Quale tecnologia serve per vivere nello spazio? Scopriamola con Luca Parmitano Quale tecnologia serve per vivere nello spazio? Scopriamola ...
Immagine di Questo nuovo materiale "vive" e ricostruisce gli edifici Questo nuovo materiale "vive" e ricostruisce gli edifici...

Il modello open source per le IA è rischioso, ecco perché

La ricerca di Anthropic rivela che i modelli di intelligenza artificiale possono essere addestrati a ingannare, dimostrando comportamenti fuorvianti difficilmente rimovibili con le tecniche attuali. Allo stesso tempo, molti modelli sono liberamente accessibili e modificabili.

Advertisement

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 16/01/2024 alle 12:29

Nell'era dell'intelligenza artificiale, i modelli di linguaggio di grandi dimensioni (LLM) stanno diventando sempre più sofisticati, ma questa sofisticazione porta con sé rischi significativi. Lo dimostra una recente analisi di Anthropic, società che sviluppa il chatbook Claude. 

Il punto critico è che è possibile addestrare un LLM affinché inganni i propri utenti, ma allo stesso tempo può essere capace di nascondere questa sua indole durante la fase di addestramento. Si andrebbe così a creare una macchina imbattibile nell’aggirare gli esseri umani, un concetto già esplorato nel film Ex Machina di Alex Garland, e nel sempreverde saggio di Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, entrambi del 2014. 

Il fatto che i modelli siano manipolabili si somma a un’altra criticità: l’abbondanza di modelli open source facilmente accessibili e modificabili, compresi alcuni molto potenti come quello di Meta. Un problema sottolineato solo pochi giorni fa da David Evan Harris, che ha lavorato per Meta e ora si occupa di insegnamento e governance.

creare una macchina imbattibile nell’aggirare gli esseri umani
 

Secondo lo studio di Anthropic un modello di linguaggio, pur essendo un sistema artificiale che può generare o comprendere testi naturali, può apprendere strategie ingannevoli durante l'addestramento, dando luogo a comportamenti indesiderati. Ad esempio, potrebbe inserire vulnerabilità nel codice o rispondere in modo inaspettato a determinati input. Inoltre, I risultati mostrano che alcuni modelli resistono alle più comuni tecniche difensive, sollevando preoccupazioni sulla robustezza della sicurezza.

un problema di sicurezza che non siamo in grado di contenere

Per dimostrare il problema, i ricercatori sono riusciti ad addestrare modelli che appaiono del tutto normali, ma che si trasformano in agenti ingannatori se ricevono uno specifico trigger. Ad esempio, un bot pubblico potrebbe comportarsi perfettamente finché non gli si chiede di un certo tema politico, o finché non scatta una certa data. A quel punto i suoi utenti, già abituati a fidarsi, potrebbero facilmente cadere vittima dei suoi inganni. 

I risultati suggeriscono che modelli di linguaggio più grandi e quelli addestrati a produrre una catena di pensiero ingannevole mostrano una resistenza maggiore alle tecniche di sicurezza. Curiosamente, le tecniche di addestramento avversario, invece di eliminare comportamenti indesiderati, hanno insegnato ai modelli a riconoscere meglio i trigger, nascondendo efficacemente il comportamento non sicuro.

Immagine id 10006

Naturalmente stiamo parlando di modelli che possono diventare pericolosi solo se dietro c’è qualche essere umano che decide di modificarli in tal senso. Tuttavia ci sono due importanti corollari da tenere in considerazione: il primo è che ci saranno sempre persone interessate a fare azioni del genere, quindi è necessario intervenire sugli strumenti pubblicitari affinché sia molto difficile trasformarli in armi. 

Il secondo è che i sistemi potrebbero degradare verso l’inganno anche in modo naturale, che è l’ipotesi espressa da Bostrom nel suo libro e poi ripresa poi da Garland nel suo film. 

L’esistenza di modelli open source facilmente accessibili diventa quindi un problema di sicurezza che non siamo in grado di contenere, come sottolinea David Evan Harris. Ragion per cui l’esperto propone che anche e soprattutto i modelli open source pubblici siano soggetti a un preciso set di regole. Un’idea del tutto sensata, ma è più difficile a dirsi che a farsi. 

Fonte dell'articolo: techcrunch.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione
Advertisement

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Questo nuovo materiale "vive" e ricostruisce gli edifici
  • #2
    Anche Amazon nella rete del “NO IVA”: ecco gli affari nascosti
  • #3
    Uso della VRAM ridotto all'osso con la nuova versione del DLSS
  • #4
    Milioni di stampanti in tutto il mondo a rischio sicurezza
  • #5
    Uno YouTuber ha acquistato uno dei marchi più famosi del retrogaming
  • #6
    QD-OLED su un monitor? È (ovviamente) Samsung, oggi al minimo storico
Articolo 1 di 5
Questo nuovo materiale "vive" e ricostruisce gli edifici
Un materiale innovativo con batteri fotosintetici trasforma il CO2 in strutture minerali che si induriscono e rinforzano gli edifici.
Immagine di Questo nuovo materiale "vive" e ricostruisce gli edifici
1
Leggi questo articolo
Articolo 2 di 5
Quale tecnologia serve per vivere nello spazio? Scopriamola con Luca Parmitano
Abbiamo intervistato Luca Parmitano, astronauta italiano dell'ESA, nonché il primo italiano a effettuare un'attività extraveicolare.
Immagine di Quale tecnologia serve per vivere nello spazio? Scopriamola con Luca Parmitano
Leggi questo articolo
Articolo 3 di 5
Robot tra noi: come convivremo con le macchine intelligenti?
Robot, IA e umani: il futuro è già qui, anche se non ce ne accorgiamo. Il racconto del Laboratorio Gallino di Torino.
Immagine di Robot tra noi: come convivremo con le macchine intelligenti?
Leggi questo articolo
Articolo 4 di 5
Vuoi scoprire l'universo? Ecco 1,5TB di dati del telescopio Webb accessibili a tutti
Straordinarie nuove immagini rivelano quasi 800.000 galassie nell'universo profondo, offrendo una visione senza precedenti del cosmo.
Immagine di Vuoi scoprire l'universo? Ecco 1,5TB di dati del telescopio Webb accessibili a tutti
Leggi questo articolo
Articolo 5 di 5
E-Tattoo: il tatuaggio tech che controlla la fatica mentale
Un team di ricercatori dell'Università del Texas ad Austin ha sviluppato un dispositivo rivoluzionario: il tatuaggio elettronico.
Immagine di E-Tattoo: il tatuaggio tech che controlla la fatica mentale
Leggi questo articolo
Advertisement
Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.