Microsoft Research, USC e l’Università di Waterloo hanno sviluppato una soluzione piuttosto semplice per consentire la manipolazione di oggetti multipli all’interno di scenari virtuali, che funziona sostanzialmente ingannando la nostra mente e alterando la percezione che abbiamo del nostro corpo e della realtà circostante.
Per poter interagire con gli oggetti all’interno della realtà virtuale è necessario indossare un dispositivo dedicato. Inoltre, per ottenere un feedback aptico soddisfacente, il sistema ha bisogno di tracciare con precisione un corrispondente oggetto fisico. Tuttavia, se gli oggetti sono multipli l’interazione può diventare difficile da gestire a livello computazionale, perché il sistema dovrebbe tracciare tanti oggetti fisici quanti sono quelli riprodotti in VR.
La soluzione sviluppata da Microsoft e chiamata Haptic Retargeting risolve il problema utilizzando un solo oggetto e “moltiplicandolo” poi semplicemente ingannando in diversi modi la nostra percezione.
Il video postato lo spiega molto bene. Nel primo esperimento, chiamato body warping o distorsione corporea, sono infatti mostrati al protagonista del test tre cubi su un piano ma, mentre lui infila il visore, due cubi vengono rimossi. Il programma chiede poi di toccare in sequenza ciascuno dei tre cubi e il beta tester vedrà effettivamente il proprio braccio spostarsi verso ognuno dei tre oggetti, ma in realtà raggiungerà sempre l’unico cubo disponibile.
Nel secondo esperimento, chiamato invece world warping o distorsione ambientale, al beta tester è chiesto sempre di toccare diversi oggetti in sequenza, voltando prima la testa, ogni volta in direzione opposta. In quel breve lasso di tempo infatti il programma ruota lo scenario, così da far corrispondere via via i diversi cubi virtuali all’unico disponibile nella realtà.
Il terzo esperimento infine è chiamato hybrid warping o distorsione ibrida e fonde i primi due approcci. Tale approccio è stato preferito e ritenuto più soddisfacente dalla maggioranza dei soggetti testati.
Per il momento non si sa altro sulla ricerca, né Microsoft ha indicato date più o meno precise per l’eventuale adozione di questa soluzione nei visori per realtà virtuale di prossima generazione.
In occasione del CHI 2016 (Human-Computer Interaction), che si terrà dopodomani 7 maggio a San Jose in California, l’azienda di Redmond renderà noti i risultati in un documento più approfondito.