Lo que estás leyendo ahora mismo no son más que ceros y unos interpretados en forma de pixéles en un display —aka Monitor—, que puede ser desde un fiel CRT para los puristas o un LCD de infinitas cantidades de pulgadas para los más estilosos. La historia de la evolución de los Monitores y todos sus primos, hermanos, abuelos, etc, después del salto, aquí —terminando con la semana del monitor en MadBoxpc.com— en la humilde —y atrasada hahaha— edición de esta semana de: la Ley de Moore.
Los origenes
Los monitores nacieron por una necesidad. Porque desde el principio de la historia de la computación, existió una gran interrogante en todos los usuarios: «¿De qué me sirve hacer cálculos complejos, si no puedo ver el resultado final?». Y es precisamente ahí cuando nacen los abuelitos de los monitores, las Unidades de Display Visuales. Menos mal porque había no poca gente que proponía como solución a este problema un s simple impresora. ¿Te imaginas hoy en día imprimiendo cuadro a cuadro el trailer HD de Transformers 2? Yo tampoco.
Aunque tengamos la certeza de que tecnologías como la de CRT —que detallaremos más adelante— son antiquísimas, nunca nos imaginaríamos que incluso ya en el año 1897 un físico alemán llamado Ferdinand Braun, que ganó un Premio Nobel en Física, inventó y desarrolló un aparato similar a un monitor CRT, el que posteriormente apodó con el —egocéntrico— nombre de Braun Tube. Aquel —entre comillas— CRT, era bastante primitivo si se considera que fue basado en el experimento de William Crookes que descubrió los electrones con un tubo al vacío por el que hizo pasar corriente DC (Acuérdate! Eso se pasa en 8vo básico :P)
Los CRTs —que por cierto significa Tubo de Rayos Catódicos— funcionaban básicamente de la siguiente manera: Un típico monitor CRT contiene millones de pequeños puntos de fósforo de 3 colores; rojo, verde y azul. Estos puntos, que eléctricamente son ánodos —entonces son positivos— se iluminan cuando 3 cañones (Rojo, Verde y Azul) disparan electrones —que tienen carga negativa—, y como son polos opuestos, estos se atraen.
Es digno hacer notar, como dato rosa, que gracias a los monitores CRT , se inventaron los “screensavers” o Protectores de Pantallas —¿Quién no se acuerda del laberinto de ladrillos de Windows 98?—, porque una de las características del fósforo era que se imprimía permanentemente en la imagen una determinada imagen si se mantenía estática por mucho tiempo. Por ejemplo, un monitor CRT que ha sido ocupado continuamente con una interfaz de Windows, no es difícil que tenga marcado el botón inicio. Para prevenir eso, se creó el screensaver, que se preocupa de pintar con muchos colores cada píxel de tu pantalla, para evitar que estos se queden dormidos en los laureles.
Uno de los principales problemas que sufrió la tecnología CRT fue filtrar que ánodos de fósforo iluminar, y para ello se crearon bastantes métodos, de los cuales solo 2 sobrevivieron: La «Máscara de Sombra», que sustenta su uso en el ángulo de llegada que tienen los ánodos al fósforo y que es generalmente usada en monitores CRT para Computadores, y una «Grilla de Apertura», patentada por Sony con la marca Triniton en los ’60 que habitualmente es usada en los Televisores.
–
Las inexorables limitantes
Una de las grandes ventajas que generalmente los pro-CTR argumentan es la gran paleta de colores disponibles y el funcionamiento relativamente normal en distintas resoluciones, incluso menores que la nativa. Si bien es cierto y aplica en nuestros tiempos, esto no siempre ha sido así. El que vino a ordenar el “gallinero” aquí fue —para variar— IBM, cuando en 1981 comercializó la CGA —Adaptador Gráfico de Color, por sus siglas en inglés— y el MDA —que en español significa Adaptador de Display Monocromático—. El primero, le dio el título a IBM de ser el primero en crear un estándar gráfico de color para los PC, y el segundo, le otorgó la supremacía en el mercado de los procesadores de texto.
La CGA podía renderizar 4 colores y alcanzar resoluciones de hasta 320 píxeles horizontales por 200 verticales. Especial para jugar Age Of Empire 😛 . Después de eso —y como por supuesto debe suceder— en 1984 el Gigante Azul lanza al mercado el refresco para la CGA, el EGA —que en español sería algo como Adaptador de Gráficos Mejorados (Nota Mental: Darle gracias a Dios que ahora AMD y Nvidia tienen grupos enteros de gente trabajando en nombres que suenen bacán: GTX, HD, Gforce, etc.)—, adaptador capaz de mostrar 16 colores y otorgar la increíble resolución de 640×350 pixeles.
–
VGA un eslabón Importante
Pero realmente las cosas revolucionaron cuando en 1987, IBM introdujo al mercado la tecnología VGA (Video Graphics Array), donde además de tener a tu libre disposición una paleta de 256 colores, podías correr tu entorno gráfico a la esplendorosa resolución de 640 píxeles de alto por 480 de ancho. Ahora, seguramente te preguntarás: ¿Por qué las cosas revolucionaron? Sencillamente porque aún hoy en día, no es raro ver dispositivos ocupando tecnología VGA. De ahí en adelante, tal como se pudo haber esperado, tanto las paletas de colores como las resoluciones de los Adaptadores fueron en un constante incremento. Y eso finalmente le pasó la cuenta a los CRT.
Seguramente te preguntarás ¿Por qué?, y la principal razón es que a mayor resolución, los monitores tienden —debido a bastantes razones: exigencias del mercado, comodidad, etc— a agrandarse. Y resultaba totalmente impráctico construir CRTs de más de 40″ porque —además de los 110 Kg que en promedio pesaban los CRTS de esas dimensiones— tecnologías nuevas como la de Cristal Líquido y la de Plasma, permitían tener literalmente, un televisor adosado a la muralla, al más puro estilo James Bond. Aunque probablemente los 2 golpes que más le dolieron al Tubo de Rayos Catódicos fueron los propiciados en 2005 y 2008 por parte de Sony y Samsung, respectivamente, cuando decidieron detener la manufactura de monitores —tanto para PC como para TV— CRT.
Luego de eso, el mercado probablemente entro en éxtasis. LCDs y Plasmas abundaban en las vitrinas con tecnologías totalmente nuevas: Televisión de Alta Definición, pantallas tanto en sabores Mate como Glossy, necesidad de menor cantidad de energía respecto a las —ya anticuadas— monitores CRT, pantallas planas que no deformaban la geometría de las imágenes —pese a que Sony ya había lanzado al mercado CRTs con esta tecnología—, etc.
–
Origenes del LCD y tecnología asociadas
Súper-dupi-fantástico. Pero, créelo o no, los inicios y primeros “papers” sobre las Pantallas de Cristal Líquido se remontan a 1888, cuando Friedrich Reinitzer descubre una propiedad cristalina en el colesterol extraído de zanahorias. Ok, estamos de acuerdo. Ni él ni cualquiera de nosotros podríamos imaginar que esa propiedad de las zanahorias podría permitir que se fabricaran monitores delgados para PCs. Es por esta razón, que el que se lleva todos los créditos del desarrollo del LCD es Richard Williams de los laboratorios de RCA, cuando descubrió interesantes características electro-ópticas y posteriormente las puso en uso generando patrones de línea en Cristal Líquido mediante la aplicación de voltaje sobre este.
Pero la tecnología LCD «al bruto», aparte de las ventajas estética, tiene un rendimiento bastante inferior al que podría ofrecer un CRT, poco brillo, elevados tiempos de respuesta —en la primera generación los tiempos de respuesta eran de 25 milisegundos en promedio, un asco—, bajos niveles de contraste, etc. Fue principalmente por esta razón que se le aplicaron esteroides a los LCDs y los potenciaron con TFT —transistor de película fina, por sus siglas en inglés—. La tecnología LCD-TFT funciona de la siguiente manera: Los cimientos de estos monitores se basa en millones de cristales líquidos (pixeles), los que agrupados en filas y columnas —y por cierto, cada uno con su transistor respectivo para evitar interferencias—, se les hace pasar una determinada cantidad de voltaje para que cambien a un color.
Ahora, un punto clave a la hora de elegir y comparar TFTs-LCDs, es la tecnología con que se construyen los paneles. Básicamente existen 3 en el mercado TN, MVA e IPS. Todas con sus respectivos pros y contras, que generalmente pocas personas toman en cuenta, pero que son realmente importantes. Prueba de esto es el revuelo que produjo una noticia que rumoreaba que las pantallas de los MacBooks Pro mostraban menos colores de los publicitados, lo que está directamente relacionado con estas tecnologías.
–
Tecnologías
Partamos con TN. TN —que es la sigla en inglés para Twisted Nematic— es la tecnología más común en monitores menores de 24″ debido principalmente a que son muy baratos y además ofrecen excelentes tiempos de respuesta —es por esto que dicen que los TNs son la opción de los gamers—. Aunque donde realmente se cae esta tecnología es en la reproducción del color. Ya que en vez de tener capacidad para mostrar 16.7 millones de colores (24-bits) como el IPS, solamente puede desplegar 262 mil. Sin embargo, mediante una tecnología llamada “Dithering”, se pueden alcanzar los 24-bits, aunque la precisión de los colores no es de las mejores. Otro de los grandes contras de los TNs son los pésimos ángulos de visión que estos ofrecen. Un video vale más que mil palabras
El siguiente es el MVA —Vertical Alignment—, es una tecnología que se encuentra entre los TNs y los IPS. Ofrece una mejor reproducción del color respecto al TN, con la desventaja de tener mayores tiempos de respuesta, por lo tanto, si eres gamer, esta no es tu opción. Poseen mayores ángulos de visión, aunque no tan buena como la de los IPS. Una de las grandes ventajas que tiene el MVA son los elevados niveles de contraste que puede ofrecer, lo que te da como producto negros muy profundos. Pese a que a grosso modo es una tecnología relativamente aceptable, debido a múltiples razones, no ha tenido buena aceptación en el mercado.
Y finalmente, “la chupá del mate”, es decir, lo mejor de lo mejor, los monitores IPS. Que si bien no es la mejor opción para un gamer debido a los elevados tiempos de respuesta —un IPS «rápido» demora 6ms en cambiar un píxel de negro a blanco—, es considerada la mejor opción entre todas las tecnologías. Es extremadamente hábil reproduciendo colores, lo que sumado a los altos contrastes, elevados niveles de brillo y grandes ángulos de visión —cercanos a los 178º—, la hacen la opción perfecta para aplicaciones que requieran gran precisión en los colores, como el diseño gráfico. Aunque obviamente, todo tiene un precio, y esta tecnología además de ser buenísima, es carísima.
–
Reflexión final
Estamos en el presente, entonces, ¿Qué se viene a futuro? Definitivamente lo que viene fuerte en este mercado son las pantallas con tecnologías OLED y LED. Los monitores OLED disponibles actualmente en el mercado son escasos, pero ofrecen bastantes ventajas respecto a los LCDs, de hecho, serían casi perfectos a no ser de que: Primero, sólo sean pantallas relativamente pequeñas ridículamente caras, y segundo, que al ser Diodos Orgánicos Emisores de Luces, se degraden muy fácilmente.
Hasta aquí llegamos el día de hoy en la Ley de Moore. Y quiero terminar con una interrogante que me gustaría contestaran: Ya que no hay datos objetivos para medirlo, desde tu punto de vista, ¿Se ha cumplido la Ley de Moore en este mercado?, ¿Qué tipo de monitor usas? ¿Por qué?
Artículo: Hombre Pipa Edición: Cedrik