Facebook contro il terrorismo, ma fa subito uno scivolone

Facebook ha annunciato di star lavorando alacremente sulla messa a punto di nuove e più efficaci misure contro il terrorismo. Intanto però un errore nella sicurezza ha consentito a sospetti terroristi di conoscere l'identità di oltre 1000 moderatori.

Avatar di Alessandro Crea

a cura di Alessandro Crea

Il terrorismo attuale, si sa, viaggia soprattutto in Rete. Normale dunque che per contrastarlo in maniera efficace è necessario che gli operatori del settore si dotino di strumenti adeguati, soprattutto per quanto riguarda social network e motori di ricerca, come più volte richiesto anche dalla Comunità Europea. Nessuna sorpresa dunque se un colosso come Facebook ha annunciato nelle scorse ore di avere allo studio soluzioni tecnologiche che dovrebbero aiutare a contrastare la diffusione di contenuti terroristici attraverso le sue pagine.

facebook ap 1

Prima attraverso un post di Mark Zuckerberg sulla propria pagina personale di Facebook e poi tramite un post ufficiale sul blog firmato da Monika Bickert, Director of Global Policy Management, e Brian Fishman, Counterterrorism Policy Manager sono stati dunque diffusi i dettagli principali.

Intelligenza artificiale

facebook screen 600 dTTE1HV

Una delle chiavi per bloccare la diffusione di post a sfondo terroristico è l'impiego dell'intelligenza artificiale. Questo avverrà tramite diverse modalità. Una è il confronto d'immagini, che consentirà al sito di rimuovere tutte le foto o i video pubblicati da varie fonti se dovessero avere una corrispondenza con altri contenuti già eliminati.

Basata su algoritmi di apprendimento profondo, questa soluzione consentirà di comprendere i messaggi e di eliminare automaticamente tutti quelli che abbiano in qualche modo a che fare con contenuti terroristici. Attualmente è ancora in fase sperimentale ma Bickert e Fishman hanno spiegato che per la sua natura più l'algoritmo viene impiegato più migliora la propria efficacia.

Nel mondo reale i terroristi sono solitamente organizzati in cellule, vale a dire in piccoli gruppi operativi i cui membri sono tutti connessi direttamente tra loro. Lo stesso, ci spiega Facebook, accade anche sul Web. Il social dunque cercherà in modo sempre più efficiente di individuare e chiudere account che mostrino elevati rapporti con altri profili già chiusi per terrorismo o che hanno condiviso materiali legati ad attività terroristiche.

Leggi anche: Facebook, ecco le regole segrete per valutare i contenuti

Leggendo il paragrafo precedente molto probabilmente vi sarete interrogati come me sulla reale efficacia di chiudere un profilo, visto che l'utente ne potrebbe aprire decine, tutti falsi e continuare indisturbato le proprie attività.

Ovviamente ci hanno pensato anche i tecnici di Facebook. In questo caso però la battaglia è infinita: i terroristi escogitano continuamente nuovi metodi per aggirare i controlli di Facebook e quest'ultimo in risposta evolve le proprie strategie, nel tentativo di ridurre sempre più i tempi sulle proprie pagine tra una chiusura e l'altra.

Questo tipo di attività non si limitano al solo social network ma dovranno sempre più coinvolgere l'intera piattaforma. Ecco perché si stanno studiando metodi per individuare uno stesso utente su Facebook ma anche su WhatsApp e Instagram.

Collaborazione

facebook live desktop cover

Quella di Facebook, per quanto grande, non è l'unica piattaforma disponibile. Per questo si ritiene giustamente indispensabile collaborare anche con le altre aziende del settore. Facebook di recente è entrata in un'associazione con Microsoft, Twitter e YouTube al fine di condividere i database degli hash, marchi digitali univoci per foto e video, che aiutano a riconoscere contenuti terroristici anche se diffusi su una piattaforma diversa. Facebook ha anche un programma di collaborazione con diversi organi come l'EU Internet Forum, la Global Coalition Against Daesh e lo UK Home Office. Come sappiamo però sul Web, e in particolare sui social network, le notizie si diffondono tramite le cosiddette echo chambers, camere di risonanza in cui persone che la pensano nello stesso modo condividono materiali atti a rafforzare le proprie convinzioni, senza contraddittorio e senza che altre voci possano farsi sentire al suo interno.

Leggi anche: Facebook e Google, censura contro i video violenti

Per contrastare questo meccanismo Facebook ritiene che possa anche essere utile individuare specifiche figure che godono di credibilità per addestrarle a contrastare le narrazioni violente dei terroristi, in modo da depotenziarle e convincere altri ad allontanarsi da quei percorsi.

Molto interessante infine è anche l'affermazione fatta riguardo la cifratura. Se ricordate, nel recente passato Apple e FBI sono arrivate ai ferri corti perché la prima non ha voluto collaborare in alcun modo per consentire alla seconda di accedere ai dati presenti sullo smartphone di un attentatore.  Facebook invece ha affermato che: "‎Forniamo le informazioni che possiamo in risposta a richieste coerenti con le leggi esistenti e con le nostre politiche".

L'apporto umano

Cattura JPG

Facebook sa però che non si può automatizzare tutto e che la componente umana resterà comunque rilevante in questa lotta. ‎La foto di un uomo armato che sventola una bandiera dell'ISIS ad esempio può essere materiale di propaganda ma anche di informazione: la differenza la fa il contesto e nessuno meglio di un essere umano può valutare questa componente. Per questo in tutto il mondo Facebook ha un network di oltre 3000 operatori che agiscono 24 ore su 24 per valutare costantemente tutto il materiale segnalato e prendere decisioni di conseguenza.

Proprio su questo argomento però Facebook è caduta rovinosamente. Come rivelato dal Guardian infatti, verso la fine del 2016 per un bug software, l'identità di circa 1000 moderatori sarebbe stata erroneamente rivelata a potenziali terroristi, tanto che uno di loro sarebbe tuttora costretto a vivere nascosto e nel terrore costante.

Leggi anche: Odiatori da tastiera, la UE sgrida i colossi del Web

In pratica un bug nel programma che i moderatori utilizzano per segnalare e rimuovere i contenuti inappropriati dalle pagine di Facebook ha fatto sì che i profili personali dei moderatori apparissero nel log dei gruppi Facebook i cui admin erano stati rimossi per aver infranto le regole. Insomma come dire a un sospetto terrorista il gruppo è stato chiuso e sono stato io.

Insomma le intenzioni di Facebook sembrano ottime ma anche uno dei più grandi social network del pianeta deve stare attento e procedere coi piedi di piombo sul terreno scivoloso della privacy, della sicurezza e della comprensione dei contesti. Il rischio di un errore può essere quello di mettere a rischio le vite delle persone.