Facebook e Microsoft unite contro i video deepfake

Facebook, Microsoft, il consorzio Partnership on AI e accademici di sette diverse università hanno dato il via nella giornata di ieri a un contest che mira a trovare nuove e più efficaci soluzioni per riconoscere i video deepfake, giudicati estremamente pericolosi.

Avatar di Alessandro Crea

a cura di Alessandro Crea

Che i video deepfake siano potenzialmente pericolosissimi non lo scopriamo certo oggi. Poter mettere il volto di un personaggio pubblico o privato all'interno di qualsiasi contesto, facendogli anche dire o fare cose che non ha mai fatto è ovviamente una minaccia, sia alla libertà personale che alla stabilità politica. Per questo nella giornata di ieri Facebook, Microsoft, il consorzio Partnership on AI e accademici di sette diverse università hanno dato il via a un contest che mira a trovare nuove e più efficaci soluzioni per riconoscere i video manipolati.

Questi ultimi come sappiamo si stanno evolvendo sempre più velocemente, consentendo di creare ora anche video a figura intera, sincronizzare i movimenti labiali con frasi del tutto inventate e persino piazzare la faccia di chiunque all'interno di preesistenti sequenze video, come dimostrato ad esempio proprio in questi giorni dall'app Zao. Di contro per i ricercatori nessuno mette altrettanto impegno per smascherare questi video e trovare contromisure efficaci, atte a consentirne il riconoscimento, che pure sarebbe un elemento cruciale, si pensi ad esempio all'ambito forense.

Per questo gli organizzatori hanno pensato alla Deepfake Detection Challenge, che si svolgerà dalla fine del 2019 fino alla primavera del 2020. ‎Dopo la selezione preliminare, i partecipanti avranno accesso a una raccolta di video deepfake che Facebook prevede di rendere disponibile entro dicembre, realizzati grazie all'apporto di attori professionisti che hanno acconsentito all'impiego del proprio volto in questo genere di video e che, secondo il CTO di Facebook Mike Schroepfe, somiglieranno per quanto possibile ai veri video ospitati dal social.

Il problema di base dell'attuale approccio tramite intelligenza artificiale e reti neurali è che queste necessitano di un numero enorme di esempi per essere in grado di distinguere un video deepfake da uno originale. Sarebbe facile ad esempio per un'IA distinguere lo spezzone del film Forrest Gump dove Tom Hanks stringe la mano al presidente Nixon dal video originale, se appunto tra i suoi esempi fosse giù presente, ma se un individuo dovesse falsificare un video e immetterlo in rete la cosa si fa molto più complicata. ‎L'idea del contest non è di mettere a punto una soluzione in grado di fermare per sempre i deepfake, ma trovare modi per rendere più difficile e più costoso creare deepfake credibili.‎

Preoccupati per l'impatto di deepfake e altre tecnologie simili sulla società e sul mondo della comunicazione? The Reality Game fa il punto della situazione, analizzando tecnologie, soluzioni e possibili scenari.