Android

Google Pixel, i dettagli del nuovo sensore fotografico

Sony ha fornito molti dettagli tecnici sul Sony Exmor RS IMX378, cioè il sensore fotografico presente sui recenti Google Pixel e Xiaomi Mi5s. Riguardo a questi smartphone si è già detto che hanno qualità fotografiche eccezionali, e che in buona parte questo è merito del sensore e dei pixel più grandi rispetto alla media, cioè 1,55 micrometri.

Il sensore è grande 7,81 mm (1/2.3"), e che si tratta di un sensore del tipo Stacked BSI CMOS. Include messa a fuoco a individuazione di fase (PDAF) e la tecnologia Sony SME-HDR che Google ha enfatizzato durante la presentazione. Secondo Sony inoltre questo nuovo sensore si comporta meglio con lo slow motion, rispetto ai predecessori.

Sony Exmor R vs Exmor RS BSI vs Stacked BSI CMOS image sensor

Il primo elemento rilevante è quello "stacked BSI CMOS". C'è una parola in più, stacked, rispetto a sensori che già conosciamo. Sostanzialmente cambia il modo in cui sono "impilati" gli elementi dei sensori, in modo tale da garantire che una maggiore quantità di luce raggiunga il substrato semiconduttore (fotodiodi).

Abbiamo poi la messa a fuoco a individuazione di fase o PDAF (phase detection auto focus), integrata sul sensore Sony IMX378. In pratica il sensore può individuare le differenze di illuminazione tra i vari elementi inquadrati, e usare questa informazione per mettere a fuoco e regolarsi. Il risultato è una messa a fuoco automatica più veloce e più precisa rispetto all'individuazione di contrasto. Questo sensore comunque non è l'unico dotato di PDAF, anzi è una caratteristica relativamente comune sui top di gamma.

Il sensore del Google Pixel è inoltre capace di gestire un alto frame rate, cioè molte immagini al secondo. In pratica questo sensore è ciò che permette di girare video in FullHD e 120 Hz. Anzi, il sensore potrebbe arrivare anche a 240 Hz. Oltre che per lo slow motion, questa capacità è particolarmente utile per usare la tecnica HDR.

Backside Illumination CMOS Sensor Design

Proprio quest'ultima è uno degli aspetti più interessanti dei Google Pixel. Come alcuni lettori sapranno, la tecnica HDR consiste nello scattare più fotografie dello stesso soggetto, variando le impostazioni tra uno scatto e l'altro. Successivamente le immagini vengono sovrapposte per crearne una che unisca tutte le qualità migliori. Si può applicare anche ai video con alcuni compromessi, soprattutto per via della grande potenza di calcolo necessaria.

Con il sensore IMX378 Sony introduce una nuova tecnica chiamata SME-HDR, che sta per Spatially Multiplexed Exposure HDR. Il vantaggio è che permette di sfruttare la massima risoluzione e al massimo frame rate consentiti dal sensore. SME-HDR è presente anche sui sensori IMX214 (Asus Zenfone 3, Moto Z, Xperia X Perfomance). Sull'IMX 378 però permette di registrare video a 10 bit, 4k e 60 hertz, anche se ci potrebbero essere altri limiti sullo smartphone che impediscono di raggiungere tale risultato; Google per esempio non ha parlato di video HDR, che potrebbe non arrivare mai per il Pixel di quest'anno.

Sony Full Frame APS C and 12 322 Exmor CMOS Sensors
Da sinistra a destra: sensore FullFrame, APS-C ed Exmor CMOS

Questo nuovo sensore Sony può inoltre gestire in parte l'elaborazione dell'immagine che avviene dopo lo scatto, facendo quindi parte del lavoro che è tradizionalmente assegnato all'ISP (Image Signal Processor) integrato nel SoC – Snapdragon 821 nel caso del Pixel e del Mi 5s.

Il sensore Sony Exmor RS IMS378 dà una grande contributo alle capacità fotografiche del Google Pixel, che grazie al software dell'azienda californiana – compresa l'eccellente stabilizzazione elettronica – è risultato il migliore mai testato da DxOMark. Secondo Steven Zimmerman di XDA Develpers, la fonte di questo articolo, il risultato avrebbe potuto essere ancora migliore con stabilizzazione ottica e Dual Pixel PDAF (presente sul Galaxy S7). Che cosa ne pensate, vale la pena di pagare il prezzo di un Google Pixel per avere queste capacità fotografiche?