Standard video

DVI, HDMI, UDI e DisplayPort: cosa distingue queste interfaccia ad alta definizione? Scopriamolo insieme, tra dettagli e un po' di storia.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Standard video

Per capire il punto a cui siamo arrivati, è necessario dare uno sguardo al passato. Non siamo improvvisamente arrivati al 1080p senza ragione. Con il passare del tempo abbiamo capito che l'occhio umano è particolarmente attratto dalle immagini di elevata qualità, e il 1080p è un punto di arrivo, e sarà sufficiente ancora per molti anni.

Per capire quello che è accaduto dobbiamo incominciare dall'inizio. Consideriamo le basi d'evoluzione dei computer. I primi sistemi erano molto differenti dai computer moderni. Si trattava principalmente di indicatori luminosi. Tuttavia questo era già sufficiente, poiché permetteva di gestire delle attività più velocemente. Tutto questo era fatto senza dei display opportuni.

MDA, Hercules e CGA

I primi standard video certificati per l'utilizzo con i PC nacquero poco dopo l'introduzione della CPU 8088. Questi erano l'MDA, il CGA ed l'Herculer Graphics Adapters.

Lo standard MDA permetteva la sola visualizzazione di testo, con caratteri da 9x14 pixel. Venivano visualizzate 80 colonne per 25 linee. Queste caratteristiche erano sufficienti per la visualizzazione 256 caratteri con attributi limitati: invisible, underline, normal, bright, reverse display e blinking. Ogni pagina pesava 4 KB.

Image

L'Hercules offriva il vantaggio della monocromia. Seppur basato su una tecnologia compatibile con l'MDA, permetteva la visualizzazione di immagini. La risoluzione era di 720x350 per pagina, con punti individuali che potevano essere accesi e spenti, permettendo così della semplice grafica. Ogni pagina necessitava 32 KB di memoria, e permetteva solitamente la gestione di due pagine con una memoria tipica di 64 KB.

Image

Il CGA uscì praticamente assieme all'MDA. Permetteva di sfruttare alcune abilità base ma con l'ausilio dei colori. Era possibile gestire una modalità video da 160x200 a colori, comprese le combinazioni di Rosso, Verde e Blu. Era presente anche una modalità super video da 320x200 pixel con quattro colori. In modalità testo, ogni carattere a schermo veniva abbinato a un attributo che indicava il colore del testo e dello sfondo. Era possibile utilizzare otto differenti colori di background e 15 colori in primo piano, lampeggianti o meno. Gli adattatori CGA avevano molti problemi con il sistema di accesso alla memoria durante i cicli di refresh. Come risultato, dovevano essere utilizzate particolari logiche di comando per evitare il cosiddetto "effetto neve" durante la scrittura a schermo. Il CGA permetteva la creazione di semplice grafica e dei primi videogiochi, creati con l'originale microprocessore 8088 a 4.77 MHz. Il pratica, il CGA e l'MDA erano identici, eccetto per l'RGB.

Image

L'Enhanced Graphics Adapter (EGA) uscì poco dopo. É con questo standard che iniziò la vera evoluzione. Era la prima volta che un'immagine veniva visualizzata in maniera simile alla realtà. C'era una modalità a 16 colori in risoluzione 640x200 e 320x200, assieme a una modalità più potente da 640x350 e 16 colori (scelti da una tavola a 64 colori). I miglioramenti dello standard EGA portarono il supporto alle risoluzioni di 640x400, 640x180 e 720x540. Questi sforzi fecero chiaramente capire che le persone volevano una grafica sempre migliore.