Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Android 17 farà la gioia dei videogiocatori Android 17 farà la gioia dei videogiocatori...
Immagine di Vietare i social non risolve nulla e non mi convincerete del contrario Vietare i social non risolve nulla e non mi convincerete del...

Deepfake addio: la rivoluzione di YouTube

YouTube lancia uno strumento per individuare e rimuovere i deepfake non autorizzati dalla piattaforma, dopo averlo anticipato lo scorso anno.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 22/10/2025 alle 08:45

La notizia in un minuto

  • YouTube lancia uno strumento di rilevamento deepfake per i membri del Programma Partner, che funziona come Content ID ma per i volti manipolati dall'intelligenza artificiale
  • Gli utenti possono registrarsi fornendo un documento d'identità e un video selfie per scansionare automaticamente i contenuti caricati sulla piattaforma e richiedere la rimozione di video non autorizzati
  • La tecnologia presenta una limitazione importante: rileva solo manipolazioni facciali ma non protegge dalle voci clonate artificialmente

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La battaglia contro i deepfake trova un nuovo alleato nella piattaforma video più popolare al mondo. YouTube ha iniziato a distribuire uno strumento di rilevamento delle somiglianze destinato a chi partecipa al Programma Partner, una tecnologia che promette di individuare video in cui il volto di una persona è stato manipolato attraverso l'intelligenza artificiale. L'iniziativa arriva in un momento cruciale, mentre strumenti come Sora 2 di OpenAI diventano sempre più potenti e accessibili, aumentando esponenzialmente i rischi di un uso irresponsabile della tecnologia.

Il sistema funziona in modo simile al già noto Content ID, la tecnologia che YouTube utilizza da anni per identificare contenuti audio protetti da copyright. Gli utenti dovranno fornire alla piattaforma un documento d'identità governativo e registrare un breve video selfie per verificare la propria identità e fornire materiale di riferimento al sistema di scansione. Una volta completata questa fase di autenticazione, l'algoritmo analizza i video caricati sulla piattaforma alla ricerca di potenziali corrispondenze con il volto dell'utente registrato.

Quando il sistema individua una possibile violazione, la persona interessata riceve una notifica e può procedere alla revisione del contenuto sospetto. Se conferma che si tratta effettivamente di una manipolazione non autorizzata della propria immagine, può richiedere la rimozione del video dalla piattaforma. Questo processo mette nelle mani degli individui un controllo diretto sulla propria immagine digitale, un aspetto sempre più rilevante nell'era dei contenuti generati dall'intelligenza artificiale.

La tecnologia protegge solo i volti, non le voci manipolate

Esiste tuttavia una limitazione significativa nello strumento attualmente implementato. La rilevazione automatica funziona esclusivamente per le manipolazioni che riguardano il volto di una persona, mentre rimangono escluse le situazioni in cui la voce viene alterata artificialmente senza consenso. Questa lacuna rappresenta una vulnerabilità importante, considerando che molti deepfake utilizzano proprio la clonazione vocale per aumentare la loro credibilità e potenziale dannoso.

Immagine id 71042

L'annuncio di questa funzionalità era stato anticipato da YouTube lo scorso anno, ma solo ora la tecnologia sta diventando operativa per i primi utilizzatori. La scelta di limitare inizialmente l'accesso ai membri del Programma Partner suggerisce un approccio graduale, probabilmente motivato dalla necessità di testare l'efficacia del sistema e gestire il carico di elaborazione richiesto dalla scansione di milioni di video caricati quotidianamente sulla piattaforma.

La proliferazione degli strumenti di intelligenza artificiale generativa ha trasformato radicalmente il panorama della manipolazione digitale. Se in passato creare un deepfake convincente richiedeva competenze tecniche avanzate e tempo considerevole, oggi chiunque può accedere a software sofisticati capaci di produrre contenuti falsi in pochi minuti. Questa democratizzazione della tecnologia, sebbene porti con sé opportunità creative, ha simultaneamente amplificato i rischi per la privacy e la reputazione delle persone, tanto celebrità quanto individui comuni.

L'iniziativa di YouTube rappresenta un passo significativo nel tentativo delle piattaforme tecnologiche di bilanciare innovazione e protezione degli utenti. Rimane da vedere quanto efficace si rivelerà questo strumento nel contrastare fenomeni che evolvono rapidamente come i deepfake, e se altre piattaforme seguiranno l'esempio introducendo sistemi di protezione simili per i propri utenti.

Fonte dell'articolo: www.engadget.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Vietare i social non risolve nulla e non mi convincerete del contrario

Opinione

Vietare i social non risolve nulla e non mi convincerete del contrario

Di Andrea Maiellano
Android 17 farà la gioia dei videogiocatori

Smartphone

Android 17 farà la gioia dei videogiocatori

Di Andrea Maiellano
Wear OS 6.1 debutta: novità per Pixel Watch e Galaxy Watch
1

Smartphone

Wear OS 6.1 debutta: novità per Pixel Watch e Galaxy Watch

Di Antonello Buzzi
Pixel 10a: la certificazione svela poche novità ma molta AI
2

Smartphone

Pixel 10a: la certificazione svela poche novità ma molta AI

Di Antonello Buzzi
Dati irregolari da Apple Watch? L’IA del MIT ora prevede malattie

Smartphone

Dati irregolari da Apple Watch? L’IA del MIT ora prevede malattie

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.