Facebook torna su Christchurch: 1,2 mln di video bloccati in fase di upload

Facebook ha confermato che il live streaming dell'attentatore di Christchurch è stato visto in tempo reale meno di 200 volte. Un post svela altri dettagli.

Avatar di Dario D'Elia

a cura di Dario D'Elia

Facebook
ha svelato che il live streaming dell'attentatore di Christchurch è stato visto in tempo reale meno di 200 volte. "Nessun utente ha segnalato il video durante la trasmissione in diretta. Includendo le visualizzazioni durante la trasmissione dal vivo, il video è stato visto circa 4000 volte in totale prima di essere rimosso da Facebook", ha assicurato l'azienda.

Ieri Chris Sonderby, VP e Deputy General Counsel di Facebook, ha pubblicato un lungo post sulla newroom per sottolineare quanto la piattaforma si sia impegnata per contrastare la diffusione dei contenuti video violenti caricati dal reo confesso Brenton Tarrant.

"Abbiamo lavorato direttamente con la polizia della Nuova Zelanda per rispondere all'attacco e sostenere le loro indagini. Abbiamo rimosso il video dell'aggressore entro pochi minuti dalla loro segnalazione, e all'indomani abbiamo fornito una risorsa sul campo per le autorità di contrasto", ha ribadito il dirigente.

Venerdì scorso la prima segnalazione di irregolarità proveniente da un utente è arrivata 29 minuti dopo l'avvio del video e 12 minuti dopo la fine del live broadcasting. Però prima che venisse segnalato, un utente di 8chan ha pubblicato un link a una copia del video sulla piattaforma di file-sharing.

"Abbiamo contrassegnato entrambe le sparatorie come attacchi terroristici, il che significa che qualsiasi elogio, supporto e rappresentazione degli eventi violano i nostri standard della community e non sono consentiti su Facebook", ha ricordato il dirigente.

"Abbiamo rimosso gli account personali del sospetto da Facebook e Instagram e stiamo attivamente identificando e rimuovendo qualsiasi account di impostore che emerge. Abbiamo rimosso il video originale di Facebook Live e l'abbiamo cancellato in modo che altre condivisioni visivamente simili a quel video vengano rilevate e rimosse automaticamente da Facebook e Instagram".

Ben più complicata l'operazione di rimozione di quelle varianti dove è stata effettuata la registrazione video di quanto riprodotto sullo schermo. In questo caso sono stati impiegate anche le tecnologie per il rilevamento della traccia audio.

Ad ogni modo nelle prime 24 ore, come anticipato ieri, sono state rimosse circa 1,5 milioni di copie del video e più di 1,2 milioni sono state bloccate in fase di upload. Quest'ultimo dato è importante perché conferma che la tecnologia di filtraggio – una volta stabilito quale contenuto vietare – funziona.

Infine Facebook ha ricordato di aver condiviso più di 800 video relativi all'attacco con il Global Internet Forum to Counter Terrorism (GIFCT) per contribuire alle attività di studio e indagine.

"Abbiamo identificato contenuti offensivi su altri siti di social media per valutare se e in che modo il contenuto potrebbe migrare su una delle nostre piattaforme", ha concluso Sonderb. "Continueremo a lavorare 24 ore su 24 e forniremo ulteriori aggiornamenti rilevanti".

Questo impegno profuso la settimana scorsa però non è bastato al Ministro britannico per gli affari digitali Margot James che ha sollevato perplessità sull'attuale regolamentazione del live streaming. Il suo staff sta infatti lavorando a una proposta di legge che possa bloccare sul nascere la diffusione di video violenti.

"Durante le prime 24 ore dopo la tragedia, Facebook dice di aver rimosso 1,5 milioni di video", ha dichiarato la Ministra durante l'Oxford Media Convention. "1,2 milioni sono stati bloccati in fase di upload, ed è un bene. Ci sono state 300mila condivisioni non verificate per troppo tempo. L'impatto che hanno davvero mette in discussione il futuro del live streaming"-

Anche YouTube ha confermato di aver agito prontamente ma si è limitata a dichiarare, sotto il profilo numerico, di essersi confrontata con "un volume senza precedenti" di video. L'unica certezza è che il sistema automatico è stato affiancato dai moderatori, che per tutta la notte hanno rimosso migliaia di video – alcuni leggermente editati per sfuggire ai filtri.