Come un attacco informatico ha mandato dei ragazzi in ospedale

Un attacco informatico su Discord ha esposto molti studenti a contenuti violenti, e alcuni di loro hanno avuto bisogno di un ricovero. Il brutale episodio evidenzia la facilità di utilizzare contenuti orribili per colpire comunità online.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Un server Discord gestito dagli studenti dell'UC Irvine è stato vittima di un atroce attacco informatico, che ha visto coinvolti circa 3.000 tra studenti ed ex alunni. Gli attaccanti sono entrati nel server e hanno diffuso materiali violenti, sconvolgendo alcune persone a tal punto da rendere necessario un ricovero

Gli hacker sono penetrati in 30 canali, chiedendo un riscatto di soli mille dollari per togliere il disturbo. In risposta, gli studenti hanno agito prontamente, coordinandosi tramite un gruppo chat e utilizzando bot per individuare e bloccare gli hacker su Discord. Circa 400 account legati all'attacco sono stati identificati.

Gli amministratori del server hanno ripreso velocemente il controllo, ma molte altre università - e non solo - potrebbero affrontare lo stesso problema. Anche perché, e questo caso lo dimostra, pare che sia molto facile mettere a segno attacchi del genere. Discord - così come altre piattaforme per la comunicazione - ha le sue contromisure, che tuttavia non sembrano funzionare molto bene. 

Sicuramente sarebbe possibile, per Discord e per chi gestisce i server, impostare filtri automatici che funzionino ex-ante, andando a bloccare contenuti potenzialmente dannosi prima che siano caricati - anche perché di certo i nemmeno i migliori antivirus sarebbero utili in un caso simile. Tuttavia questo approccio presenta almeno due criticità rilevanti: la prima è che qualche contenuto problematico potrebbe comunque superare i filtri. 

La seconda, più importante, è che con un sistema di filtri automatici si rischia di gettare il bambino con l’acqua sporca. O, in altre parole, di bloccare contenuti che sarebbero del tutto legittimi ma che l’algoritmo ha male interpretato. 

Per ovviare a entrambi i problemi servirebbero dunque persone che si occupano della moderazione, ma anche questa opzione presenta problemi che andrebbero gestiti. 

Immagine di copertina: nexusplexus