Smartphone senza lenti, basta un sensore per scattare foto

Rambus sta sviluppando Binary Pixel, un sensore con cui scattare fotografie senza lenti.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Per fare una fotografia ci vogliono ancora le lenti, l'ultima parte analogica in un'azione che altrimenti sarebbe tutta digitale. Un'eredità del passato che presto potrebbe scomparire per sempre, almeno negli smartphone e in altri piccoli dispositivi.

Ci sta pensando Rambus, presso i cui laboratori si sta sviluppando la tecnologia Binary Pixel. Sostanzialmente si tratta di un sensore che può fare a meno delle lenti per generare le immagini. Piccolissimo, già oggi il prototipo è in grado di generare risultati più che interessanti - e mancano ancora almeno due anni prima di vederne una versione definitiva. Ne abbiamo parlato al Mobile World Congress con Patrick R. Gill, ricercatore scientifico, e Jay Endsley, direttore dello sviluppo ingegneristico Rambus.

Rambus punta a vendere il Binary Pixel ad Apple, Samsung, Sony e così via affinché lo usino negli smartphone, naturalmente, ma l'azienda pensa anche alla domotica, alla sicurezza domestica, all'ambito medicale, alla robotica e alle automobili. Tutti settori dove ogni giorno di più c'è una massiccia raccolta d'immagini digitali; insomma si va ben oltre la foto ricordo.

Si tratta di rimuovere l'ultima eredità analogica dalla fotografia digitale, e ottenere così dispositivi più compatti e ancora meno costosi. Ma senza rinunciare a nulla in termini di qualità, anzi ci si guadagnerebbe anche qualcosa. Rambus Binary Pixel offre infatti un valido effetto Ultra High Dynamic Range, comparabile secondo l'azienda a quello di una reflex digitale. L'HDR inoltre si otterrebbe con un singolo scatto, grazie a un complesso sistema di over-sampling.

Questo sensore sostanzialmente ottiene l'immagine riassemblando diversi "passaggi" sui pixel. Questo sovracampionamento è doppio, nello spazio e nel tempo. Lo "Spatial Oversampling" conta sulla suddivisione del singolo pixel in sub-pixel, così da ottenere più dati e migliorare il range dinamico. Il "Variable Temporal Oversampling" invece permette di raccogliere più campioni in un singolo periodo di esposizione (scatto) così da evitare la saturazione e migliorare le prestazioni con poca luce. Il risultato è che la foto ha più dettagli anche in condizioni di esposizione difficili, come per esempio con un soggetto controluce.

###old2839###old

Concettualmente quello di Rambus è un progetto davvero molto innovativo, perché eliminando la lente (o obiettivo che dir si voglia) si sposta tutto il lavoro sulla combinazione di hardware e software e si rende tutto completamente digitale. Un'idea che l'azienda chiama Computational Imaging.

"Nella fotografia tradizionale la lente riprende una scena e ne fa una miniatura bidimensionale, il processore digitalizza la luce e la trasforma in dati grezzi, mentre il post-processing converte questi ultimi nel formato desiderato. Infine i dati formattati vengono trasferiti in memoria", spiega infatti la documentazione di Rambus. Con il Computational imaging invece "l'immagine non è una riproduzione della scena vera a propria, ma una ricostruzione ottenuta tramite algoritmi. […] Il calcolo si può combinare con l'hardware per migliorare la qualità senza aumentare il costo o l'area del sensore. Ogni sub-frame della Binary Pixel non è un'immagine completa ma fornisce informazioni incrementali con un basso overhead di calcolo e potenza".  

Insomma tra qualche anno smartphone e webcam potrebbero non avere più gli obiettivi che hanno oggi; in un periodo più lungo magari potrebbero sparire anche quelli delle reflex?

Aggirnamento: aggiunto video dimostrativo.