Schede Grafiche

Giocare in multi-monitor: si può fare spendendo poco?

Pagina 1: Giocare in multi-monitor: si può fare spendendo poco?

Introduzione

Se non avete familiarità con il gaming su più schermi, il concetto è semplice: tre schermi connessi fianco a fianco sono usati come uno solo dal sottosistema grafico, dandovi un'ampia visione dell'ambiente e immergendovi in modo più profondo nel gioco.

Consideriamo i vantaggi di avere tre monitor in Full HD rispetto a un singolo schermo 4K. Una configurazione con tre schermi offre una prospettiva periferica decisamente migliore, che si allinea con il modo in cui l'uomo elabora le informazioni visive. Secondariamente tre monitor con risoluzione di 1920×1080 pixel hanno, tutti insieme, un quarto di pixel in meno rispetto a un monitor Ultra HD (3840×2160), il che si traduce in un carico grafico più leggere e, di conseguenza, un frame rate più elevato.

Infine, ed è qui che entra in gioco il prezzo, potete acquistare tre schermi LCD da 20-23" spendendo meno di 400 euro, mentre un display 4K solitamente parte da un prezzo di 500 euro. Una configurazione multi-monitor potrebbe anche essere molto utile sul fronte della produttività.

Quali sono i lati negativi? Una configurazione multi-monitor occupa molto più spazio e non sempre si riesce a disporre i monitor sulla vostra scrivania. Non tutti i giochi inoltre sono sviluppati con la compatibilità multi-monitor. Ci sono anche alcuni detrattori che pensano che i giocatori diventino meno efficaci per via della maggiore area visiva, che può distrarre, ma non concordiamo. Secondo noi i lati positivi sono decisamente migliori di quelli negativi.

Poiché tre schermi Full HD sono solitamente meno costosi di un monitor 4K, cerchiamo di capire se è giocare in multi-monitor è la scelta giusta. In questo articolo testiamo due schede video sotto i 150 euro per vedere se sono adeguate per sostenere un trio di monitor.

Schede video a buon prezzo per il multi-monitor

Gigabyte ci ha fornito le due schede video per questo articolo, una Radeon R7 260X e una GeForce GTX 750 Ti. Dal punto di vista "fisico" sono piuttosto simili. Per distinguerle immediatamente vi basta osservare che la Radeon ha un connettore CrossFire mentre la GeForce è sprovvista di connettore SLI. Le dimensioni sono all'incirca le stesse, mentre il PCB è blu sormontato dalle relative soluzioni di raffreddamento.

I supporti di I/O posteriore si assomigliano molto, l'unica differenza è che la GeForce ha due uscite HDMI mentre la Radeon si affida a uscite HDMI e DisplayPort. La GeForce GTX 750 Ti ha 640 CUDA core e 2GB di memoria GDDR5 su un bus a 128-bit. L'architettura Maxwell, molto efficiente, è probabilmente il più grande vantaggio di questa scheda. La soluzione di riferimento di Nvidia non ha persino bisogno di un connettore PCIe ausiliare. La versione di Gigabyte invece è dotata di un connettore a 6 pin, a beneficio del margine di overclock.

All'altro angolo del ring abbiamo la Radeon R7 260X con 896 stream processor e 2 GB di memoria GDDR5 anch'essa su bus a 128 bit. Laddove il supporto multi-monitor di Nvidia è chiamato Surround, quello di AMD è chiamato Eyefinity. Entrambi funzionano bene dopo anni di miglioramenti, anche se l'Eyefinity non è così semplice da configurare (anche se poi offre maggiore flessibilità quando si tratta di gestire monitor con risoluzioni differenti).