Il Grande Fratello esiste e l'ha progettato un italiano

È stato battezzato Cognitive Engine ed è un sistema di intelligenza artificiale sviluppato per comprendere cosa succede nelle inquadrature delle videocamere di sorveglianza, rilevare in autonomia comportamenti sospetti e prevedere in che cosa potrebbero evolvere

Avatar di Francesco Pignatelli

a cura di Francesco Pignatelli

Due ricercatori della Carnegie Mellon University hanno sviluppato le basi per un sistema di intelligenza artificiale che sia in grado di esaminare le immagini provenienti da diverse telecamere di videosorveglianza, comprenda il significato di cosa sta accadendo nelle varie inquadrature, effettui delle previsioni su quello che succederà nell'immediato futuro e, quando necessario, allerti personale umano perché intervenga. Il lavoro dei due ricercatori - di cui uno, Alessandro Oltramari, è italiano e proviene dall'Università di Trento - è stato sponsorizzato dall'Army Research Laboratory del Governo USA ed è stato discusso durante un evento dedicato alle applicazioni dell'intelligenza artificiale per la sicurezza e la difesa.

Il lavoro di Oltramari e del suo collega Christian Lebiere si concentra su come un sistema di intelligenza artificiale possa interpretare le azioni dei soggetti identificati nelle riprese di una rete di videocamere di sorveglianza. I metodi per rilevare automaticamente la presenza di persone e seguire i loro movimenti ci sono già, come anche quelli per identificare se e come i soggetti presenti nelle inquadrature interagiscono fra loro e con "oggetti" di vario genere, da una borsa a un'automobile. Manca la parte che dia un significato più dettagliato a queste singole azioni e che in base a questi significati effettui delle previsioni su cosa possa succedere. Oltramari e Lebiere hanno lavorato proprio su questo, sviluppando un modulo denominato Cognitive Engine (motore congitivo) che svolge proprio questi compiti.

Il Cognitive Engine è, in estrema sintesi, un sistema di analisi che riceve in ingresso delle riprese video in tempo reale, le analizza e arriva a scomporre ciò che "vede" in elementi concettuali di base, del tipo "chi sta facendo cosa con quali oggetti e quali altre persone". Questo schematizzare le azioni riprese dalle telecamere permette di confrontarle con dei modelli predefiniti e con una base di conoscenza che il sistema accumula nel tempo, per dare un significato preciso a cosa sta accadendo in un dato momento. Ad esempio, un uomo che appoggia una borsa per terra può semplicemente essere un viaggiatore un po' stanco o un terrorista che ha depositato un possibile ordigno. Il Cognitive Engine riconosce lo schema "uomo appoggia borsa" in entrambi i casi e poi lo confronta con l'analisi degli istanti successivi in cui l'uomo può rimanere fermo accanto alla sua borsa oppure allontanarsene, il che è un comportamento sospetto secondo certi indici di probabilità.

Il sistema di analisi automatica descritto dai ricercatori, con evidenziata la parte svolta dal Cognitive Engine

Sempre in base ai modelli di comportamento predefiniti e ai comportamenti rilevati nel tempo, Cognitive Engine può arrivare a prevedere il comportamento delle persone che rileva nei flussi video, associando a ogni azione possibile un certo tasso di probabilità. Lo scopo è sempre quello di rilevare o anticipare in maniera automatica comportamenti potenzialmente pericolosi, permettendo al personale umano di abbandonare questa attività di analisi continua delle immagini e di intervenire solo quando c'è una vera necessità.