Tom's Hardware Italia
Sicurezza

Intelligenza artificiale, gli hacker la volgeranno contro di noi?

Man mano che le tecnologie di intelligenza artificiale si sviluppano, gli esperti di cybersicurezza dovranno stare più attenti, perché gli hacker avranno sempre nuovi strumenti e tecniche per utilizzarle contro di noi. Secondo il docente Isaac Ben-Israel le soluzioni però esistono.

Arriveremo mai a vivere in un mondo dominato dalle tecnologie di intelligenza artificiale, come quello descritto da William Gibson nella sua tecnologia dello Sprawl, dove gli hacker utilizzeranno IA avanzate per “bucarne” altre simili e sottrarre dati o commettere altre azioni illegali ai danni della comunità? Secondo Isaac Ben-Israel, direttore del ICRC – Blavatnik Interdisciplinary Cyber Research Center di Tel Aviv, magari non accadrà oggi o domani, ma nel lungo periodo sarà così. Per questo gli espetti di cybersicurezza dovrebbero iniziare a preoccuparsi già oggi di prevenire e fronteggiare gli atatcchi di domani.

Già oggi assistiamo infatti a una diffusione sempre crescente e più capillare delle IA in tutti gli ambiti anche domestici e nel prossimo futuro, con l’avvento del 5G, dell’IoT e della domotica, questo fenomeno è destinato a subire una drastica accelerazione. Secondo Ben-Israel non è questione di livello tecnologico, non ha importanza quanto avanzate saranno le difese o le IA. Sappiamo bene infatti che qualsiasi soluzione basata su codice può sempre essere migliorata o volata. Per il docente israeliani la questione centrale è l’attitudine.

“Molte organizzazioni adottano le soluzioni tecnologiche più all’avanguardia per proteggersi contro gli attacchi mirati e persistenti e altre minacce emergenti, spesso utilizzando sistemi basati su IA e soluzioni di deep learning. Così facendo le organizzazioni spesso pensano di aver risolto il problema, di potersi sedere e rilassare, fiduciosi di essere perfettamente protetti. In realtà questo è il modo migliore epr essere sicuri di essere esposti ad attacchi hacker”.

Secondo Ben-Israel infatti questi ultimi sono sempre un passo avanti. Ad esempio, si può utilizzare l’intelligenza artificiale per riconoscere gli attacchi grazie al machine learning, rilevando così “modelli comportamentali” specifici, riconducibili ad un attacco. Una soluzione che sembra essere dinamica e proattiva, in grado cioè di adattarsi a situazioni mutevoli. Tuttavia basterebbe introdurre nel database utilizzato dall’IA dei set dati diversi per ingannare l’apprendimento basato sul machine learning, in modo che creda che determinati comportamenti siano normali.

Per Ben-Israel la soluzione poggia su tre diversi cardini: consapevolezza, rafforzamento dell’IA, maggior attenzione alla sicurezza di base. Col primo concetto Israel indica un maggior livello di coinvolgimento umano, indispensabile al di là della tecnologia adottata. Gli esperti non dovranno limitarsi ad adottare le soluzioni allo stato dell’arte, ma dovranno monitorarle costantemente, aggiornandole e aggiornandosi sulle ultime novità in materia di cybersicurezza.

Controlli più severi su come i dati usati per il machine learning vengono valutati – ad esempio, esaminare con maggior attenzione i timestamp nei file di registro per determinare se siano stati alterati o no – è invece la soluzione per rafforzare l’intelligenza artificiale ed evitare che gli hacker le confondano inondandole di dati di bassa qualità.‎

Poi come sempre c’è al componente umana. La maggior aprte degli attacchi hacker passano da tecniche ben consolidate ma sempre efficaci, perché lavorano sulla componente emotiva degli esseri umani. Educare i dipendenti a diffidare di mail, link, allegati etc. può sembrare una banalità ma è invece un argomento affatto scontato, su cui non a caso si soffermano tutti i principali esperti di cybersicurezza.