Il backup è stato visto per molto tempo come l’ultima risorsa, l’arma definitiva capace di sistemare qualsiasi guaio. Certo, tra la teoria e la realtà ci sono sempre delle discrepanze, spesso fatte di immagini corrotte e aggiornamenti andati male, ma se l’IT manager faceva le cose per bene, un buon backup era una sicurezza.
Purtroppo, in questi anni le cose sono cambiate. La quantità di dati da gestire è cresciuta a dismisura, la complessità dell’infrastruttura e dei server anche, gli attacchi informatici sono diventati mirati. Questo ha trasformato, gradualmente, una risorsa relativamente semplice da sfruttare in una “ultima frontiera” a cui ricorrere con estrema riluttanza.
I motivi del suo declino sono molti. Innanzitutto, l’enorme incremento nella quantità di dati che ogni azienda tratta ha creato il problema della velocità di ripristino: possono servire giorni per rimettere in funzione un database copiato con tecnologie di qualche anno fa. In secondo luogo, il semplice ripristino tramite backup di una macchina non implica che il server torni a funzionare a pieno.
I servizi che girano sulle macchine sono ormai interdipendenti e quando uno di loro sparisce, potrebbe volerci molto tempo per ‘rimettere in moto’ tutta la catena. Infine, l’assassino vero del backup tradizionale: il ramsonware mirato.
Già il ransomware di seconda generazione, quello in grado di replicarsi, rappresentava una sfida notevole da gestire tramite backup, perché se ripristinare una macchina è un lavoro che può diventare lungo, ripristinare tutte quelle di un dipartimento o di un’azienda diventa un lavoro titanico, che costringe l’azienda a una lunga inattività con conseguente perdita finanziaria (qualcuno ha detto ‘Wannacry’?).
Infine, l’ultima generazione di attacchi informatici è ingestibile tramite backup perché i criminali vanno a cercare i sistemi che copiano e ripristinano i dati e li rendono inaccessibili prima di attaccare le macchine che si occupano degli altri compiti.
Quindi cosa ci aspetta in futuro? “Il backup tradizionale” – ci dice Nick Grebennikof, development officer di Acronis – “è morto e ci serve un cambiamento di mentalità quando si parla di protezione dei dati. Serve un approccio molto più ampio, che possa davvero proteggere le copie e renderle sempre disponibili in qualsiasi momento, senza rallentamenti, senza ritardi”.
Per questo Acronis, una azienda nata con il backup, ha iniziato a evolversi e a proporre una soluzione di sicurezza più complete. “Quando si mettono in sicurezza dei dati” – continua Grebennikof – “bisogna tenere presente alcuni dettagli che al giorno d’oggi sono indispensabili: la protezione delle copie da attacchi ransomware, l’originalità del dato che viene ripristinato, l’affidabilità dei dati che vengono conservati.”
Le strategie dei criminali, infatti, diventano sempre più sofisticate e non è da sottovalutare l’idea che si sfruttino proprio i backup per portare a termine un attacco senza dare nell’occhio. Se è ovvio che le copie debbano esser protette dagli attacchi ransomware, non tutti hanno pensato al fatto che un attacco possa andare a modificare i dati di un backup e inserire un malware nell’immagine, in modo da infettare automaticamente le macchine che vengono ripristinate o anche solo modificare dei dati che sono contenuti nel backup.
“Per questo” – insiste Grebennikof – “è indispensabile cambiare approccio: non basta copiare i dati. Serve una infrastruttura che tenga costantemente sotto controllo i backup, per bloccare tentativi di criptzione non autorizzati, ma anche i tentativi di manomissione.”
Un altro pezzo, insomma, che va ad aggiungersi alla complessità della infrastruttura di sicurezza dell’azienda. Con una notizia positiva: “Ci rendiamo conto” – dice Kiril Tatarinov, executive vice chairman di Acronis – “che le performance dei server risentono di tutte queste aggiunte. Ci sono agenti su agenti su agenti che devono gestire ogni singolo aspetto. Con la nostra soluzione, però, si raggruppano un po’ di funzioni in un solo agente, molto snello. L’ideale per le aziende medio piccole e non troppo grandi, che devono stare molto attente alla gestione del budget informatico e traggono grande beneficio da tutto quello che riesce a liberare potenza di calcolo sulle macchine”.