–
El día ha llegado, finalmente «Fermi» hace su aparición en MadBoxpc, luego de mucho esperar, retrasos de aduanas, inconvenientes de por medio, les traemos un completo review de la GeForce GTX 480. Aquí podrán verla ante sus contendoras de AMD, ante la antigua tope de linea de NVIDIA, pruebas de DX10 y DX11, comparativa de imagen, consumo, overclock, etc… Obviamente aquí, en MadBoxpc.
Como todo nuevo producto, Fermi estuvo rodeado de muchas noticias, rumores y especulaciones, todo ello agravado por los constantes retrasos de su fecha de lanzamiento hasta una «fallida» o mas bien «simpática» presentación por parte de Jensen en donde se mostró al público una «maqueta» de cómo sería una tarjeta de la familia Tesla basada en «Fermi». Luego de rumores sobre sus especificaciones vinieron los relacionados con su precio, algunos decían que iba a costar $700USD otros que mucho más, sin embargo, con el tiempo se aclararon las dudas gracias a las filtraciones de siempre. Posteriormente fué la misma NVIDIA quien comenzó a revelar información y detalles de su nueva tarjeta, tal vez para calmar las pasiones de muchos que veían en Fermi un elefante blanco.
Pues bien, ahora les traemos directamente a sus monitores o LCD el review de la que promete ser «El GPU más rápido del Mundo«, tomen asiento y a leer el review de «Fermi» la GeForce GTX480, cortesía de MadBoxPC.com
Si ustedes son fieles lectores de MadboxPC, recordarán que hace ya un tiempo publicamos un artículo técnico titulado “Arquitecturas: NVIDIA GeForce GF100 “Fermi” vs ATI Radeon HD 5800 “Cypress” donde explicamos de manera profunda y detallada la arquitectura que NVIDIA había desarrollado para sus tarjetas graficas GeForce GTX 480/470, arquitectura llamada “Fermi”, por lo tanto, vamos a enfocarnos a realizar un pequeño resumen con el cambio en la arquitectura que realizó NVIDIA para poder lanzar lo más pronto posible un producto que ya tenía meses de retraso. Comenzaremos con una tabla de especificaciones para tener una referencia con lo último que ofrece AMD y la misma NVIDIA.
Revisada las especificaciones, lo primero que debemos mencionar y que representa el cambio más notable dentro de lo que habíamos anticipado en el artículo anterior sobre la arquitectura “Fermi” en la cual se basan las tarjetas GeForce GTX 480/470, es la reducción que hizo NVIDIA en el numero de “CUDA Cores” (anteriormente llamados Stream Processors ) ya que originalmente la arquitectura consideraba 512 de estas unidades, pero NVIDIA deshabilito un bloque de Streaming Multiprocessors (SM), el cual contiene 32 CUDA Cores, resultado en que el modelo GTX 480 sólo posea 480 CUDA Cores.
Para el caso de la GeForce GTX 470, el asunto es similar puesto que en este modelo NVIDIA deshabilitó 2 bloques de Streaming Multiprocessors (SM) dejando a este modelo con 448 CUDA Cores. En ejemplo lo pueden ver en la grafica anterior cortesía de nuestros amigos de techpowerup. En rojo el SM deshabilitado en el núcleo de la GTX480, aunque pueden ser cualquiera de los 16 unidades SM presentes dentro de la GPU.
Si desean ver con más detalles que elementos, además delos 32 CUDA Cores, contiene un bloque SM, vean la siguiente imagen. (clic para ampliarla)
La reducción en el numero de SM y CUDA Cores en el núcleo GF100 incorporado en las tarjetas GTX 480/470 tiene sus beneficios y contras, entre los contras tenemos que las tarjetas obtienen un rendimiento por debajo de los proyectado originalmente, tanto en tareas de computo como en operaciones gráficas altamente demandantes, esto al carecer de un bloque de SM que albergaba 32 CUDA Cores, el respectivo PolyMorph Engine, las unidades de textura , cache y otras unidades especializadas dentro de cada núcleo.
Por contrapartida el beneficio para NVIDIA de deshabilitar una de estas unidades llamadas SM, es que obtiene un chip que reduce su consumo, y por lo tanto, también se reduce la disipación térmica y el ruido en la refrigeración y otro beneficio estratégico, es que le da a NVIDIA la posibilidad de poder lanzar más adelante una tarjeta de alto rendimiento con más potencia que las actuales, y que incorpore los 512 CUDA Cores que se habían planificado originalmente.
En resumen este es el único cambio que hizo NVIDIA en la arquitectura de sus tarjetas. Ahora, si quieres interiorisarte del resto de los detalles de la arquitectura te recomiendo que leas el articulo técnico publicado anteriormente en este enlace.
Primera Mirada
Comenzamos la galeria fotografica con una foto de la protagonista en primer plano, se aprecia su acabado plástico negro con mezclas entre brillante y mate, en conjunto con ese pedazo de metal con el logo de NVIDIA que pronto sabremos de que se trata.
El reverso de la tarjeta a diferencia de sus antecesoras GTX 200 o como las HD5870 o HD5970 no posee una placa metalica que cubre y protege el reverso. Gracias a ello se aprecia la disposición de los chips de memoria (12 en total), las fases de poder y los puntos de soldadura de varios componentes.
El panel de conectores de la tarjeta, tenemos 2 DVI-i Dual Link con capacidades HDCP y un puerto HDMI, arriba está la rejilla de ventilación, hay que decir que sale harto aire caliente por ella.
Los conectores de poder, necesariamente se tienen que utilizar ambos (6 y 8 pines)
Los heatpipes del disipador, son 5 y se calientan en demasía. Junto a ellos tenemos los conectores para hacer SLI y 3-Way SLI aunque tambien se puede hacer 4-Way SLI (en cierta placa EVGA).
Un acercamiento a la placa metálica, posee cierto relieve asimilando un disipador, la verdad es que se calienta harto pero le da un toque elegante al mezclar los colores.
Una fotografía junto a su contendora «directa» la Radeon HD5870, se aprecia que el tamaño es similar. La elección de la mas bonita queda a criterio personal.
Una fotografía de como lucen ambas tarjetas en sus conectores, la Radeon HD5800 posee una pequeñisima rejilla de ventilación priorizando las salidas de video (2 DVI, HDMI, DisplayPort)
Para concluir con las fotografías, una de las partes traseras, la Geforce GTX480 posee una placa metálica que circunda todo el PCB sobre la cual se sujeta la carcaza de plástico negro, a diferencia de la ATI que está directa entre PCB y placa trasera.
Luego de haber visto la tarjeta por fuera, veamos como luce por dentro…
Mirada a Fondo
Ya conocimos a la GeForce GTX480 por fuera, es tiempo de sacar los tornillos y verla por dentro. En primer lugar quitamos esa carcaza de plástico que presenta y la tarjeta luce de la siguiente forma.
Como se puede apreciar, esa placa de metal que sobresale y destaca en el frontis de la tarjeta es parte del disipador, es por ello que se calentaba tanto. Al estar sobre las aletillas sirve como canalizadora del flujo de aire que tira el ventilador tipo blower (Delta).
Luego de retirar el disipador del GPU se puede apreciar de mejor manera la placa metalica que cubre la tarjeta en su totalidad, la cual solo deja espacio para los elementos mas grandes como los capacitores y reguladores de las fases de poder (6).
Una fotografia al disipador de la GTX480, conformado por los 5 heatpipes que se unen en la base haciendo «contacto» con el GPU, el contacto no es el mejor o el esperado, es por ello la gran cantidad de pasta disipadora. Nos hubiese gustado un acabado mas prolijo, al estilo de algunos CPU Coolers que utlizan el mismo sistema, pero bueno, no somos los diseñadores.
Removiendo la placa metalica vemos los pads de contacto de las memorias y elementos reguladores (Mosfets).
Ahora en solitario la GTX480 completamente al desnudo, su PCB nos recuerda a la GTX 295, claro que solo considerando uno de los 2 PCBs que la conforman (no la single pcb). Esto es, hablando en términos de layout.
Una fotografia de las memorias, a pesar que se intentó por todas las formas de que saliera su serigrafia no se pudo. De todas formas estamos ante chips SAMSUNG GDDR5 K4G10325FE-HC04, cuya frecuencia de trabajo es de 1250MHz (2500Mhz DDR – 5000Mhz efectivos), estas vienen configuradas a 1848Mhz (924Mhz). Al tener 12 chips montados, esta tarjeta incorpora 1536MB con una interface de 384bits.
El chip CHiL encargado de controlar el voltaje para el GPU y el VPLL. Soporta monitoreo via sotfware.
Este pequeño chip pareciera ser el encargado del voltaje para las memorias.
Luego de ver a la tarjeta tanto por fuera como por dentro, es hora de pasar a ver como rinde.
Plataforma de Pruebas
Para poner a prueba esta nueva tarjeta de video del gigante de Santa Clara, utilizamos las siguientes piezas de hardware y las acompañamos de los siguientes softwares.
Hardware
- CPU Intel Core i7 965 @ 3.2Ghz
- MB MSI X58 Pro SLI
- RAM 3x2GB Corsair XMS3 PC12800 @ 1600Mhz 9-9-9-24 1T
- VGA NVIDIA GeForce GTX295
- VGA AMD Radeon HD5870
- VGA AMD Radeon HD5970
- VGA NVIDIA GeForce GTX 480
- HDD Western Digital Blue 500GB SataII
- PSU PowerCooler 1050W
Software
- Windows 7 Ultimate x64
- AMD Catalyst 10.3
- NVIDIA Geforce 195.15 (GeForce GTX295)
- NVIDIA Geforce 197.41 (GeForce GTX480)
- Unigine Heaven 2.0
- 3DMark Vantage 1.01
- FarCry 2
- Call of Duty Modern Warfare 2
- Battlefield BadCompany 2
- Resident Evil 5
- Race Driver GRID
- Colin McRae DiRT 2
Consideraciones
Todos los juegos fuerons ejecutados a resoluciones de 1680×1050 y 1920×1200, el nivel de detalle se configuró al máximo permitido por cada juego y el filtrado fué siempre de 4xAA 16xAF salvo en el caso en que se señale lo contrario.
Las pruebas se realizaron fuera de un gabinete con una temperatura de habitación rondando entre los 17-18 ºC. Las tarjetas, asimismo el sistema, solamente se mantuvieron ventiladas con sus coolers de fábrica, no se utilizaron ventiladores extras y la velocidad de los ventiladores de las tarjetas de video era controlada vía drivers de forma automática.
Pruebas Sintéticas
La prueba sintetica por excelencia ultimamente, 3DMark Vantage toma todo el potencial de tu tarjeta de video y lo usa para renderear escenas con una calidad de visual realmente buena. En este aspecto ver correr este bench en estas tarjetas es genial, de todos modos la GTX 480 obtiene un buen puntaje, ligeramente superior a la HD5870 pero muy por debajo de la HD5970.
Pruebas Reales
A resoluciones normales vemos como la Radeon HD 5970 barre el piso con la competencia, sacándole una jugosa ventaja a la GTX 480 y 295.
Subiendo a 1920×1200 vemos cómo la diferencia se acorta, pero aún mostrando una gran ventaja hacia el lado rojo de la fuerza.
En Resident Evil 5 la cosa se pone mucho más pareja y podemos notar cómo la GTX 480 supera sin esfuerzos a la HD 5870 e incluso le hace una seria competencia a la HD 5970.
Más se nota lo mencionado anteriormente al aumentar nuevamente la resolución. De cualquier modo todas las tarjetas entregan resoluciones más que agradables para este horrible título.
En Crysis la cosa es pareja para todos a 1680×1050. Ninguna tarjeta supera los 60FPS, siendo la GTX 480 quien mejor lo aguanta considerando que es un sólo GPU.
A 1920×1200 nuestra GTX 480 se mantiene fuerte y pierde mucho menos rendimiento que las tarjetas de ATI.
Al saltar a Dirt 2 -el caballito de batalla de ATI- vemos con agrado cómo la GTX 480 se mantiene fuerte incluso en títulos ultra hiper mega optimizados para las tarjetas de AMD.
Se repite la historia a altas resoluciones con Fermi avanzando imparable como un tanque.
En Far Cry 2 la ventaja sobre la HD 5870 se percibe menos, siendo la HD 5970 la única que escapa a la furia de Fermi gracias a su configuración doble GPU.
Con resoluciones mucho más altas la ventaja para ATI se acorta un poco más, con tanto la HD 5870 como la GTX 480 bajando unos 15 FPS.
En Metro 2033 (El Crysis del 2010) tenemos a todas las tarjeas luchando por entregar una experiencia de juego digna, donde ni siquiera una configuración multi GPU entrega más de 60 FPS.
Para qué hablar de correr el juego a 1920×1200, donde la GTX 480 entrega a duras penas un framerate jugable y la HD 5970 supera por poco los 40 FPS.
En Racedriver: GRID nos sobra VGA y vemos como todas entregan un excelente desempeño, con tan sólo 9 FPS a favor de Fermi por sobre la HD 5870.
La diferencia se mantiene al aumentar las resoluciones, nada nuevo bajo el sol.
En Modern Warfare 2 la GTX 480 tiene casi el mismo desempeño que la HD 5870, por lo que si es lo único que jugarás da lo mismo cual te compres.
Y extrañamente si aumentamos la resolución ATI toma una ligera ventaja sobre NVIDIA, parece que las tarjetas rojas se llevan bien con los ports consoleros.
Calidad de Imagen: ATI vs NVIDIA
La guerra en DX11 ha comenzado ya que ambas empresas poseen productos que soportan este nuevo formato de render. Es por ello que quisimos hacer algunas pruebas para ver la influencia en benchs y juegos, además de poner a prueba la calidad de imagen (IQ) entre los 2 competidores, esto muchas veces es subjetivo por lo cual no daremos un veredicto sino que quedará a su apreciación.
DX10 vs DX11
En UNIGINE HEAVEN el cambio entre usar el motor DX10 y DX11 es notable, se aprecia a simple vista en todos los detalles. De igual forma el impacto en los FPS, claro que al tratarse de tarjetas de gama alta su impacto en los frames es poco, pero existe.
Calidad de Imágen
Algo sumamente personal y subjetivo es la calidad de imagen, aunque a veces es bien notorio. Para ello configuramos la máxima calidad en filtros e imagen que permitieron los drivers por cada tarjeta, tanto AMD como NVIDIA y luego sacamos capturas de pantalla de algunos juegos tratando que sean en el mismo lugar.
Ahora veamos otro jueguito
Finalicemos con un último juego
Para estas pruebas configuramos en los drivers los filtros al máximo permitido en todo. Todas las opciones de Eye-Candy posibles fueron configuradas al máximo, de esta forma comprobar cual es la empresa que entrega la mejor calidad posible. Aqui no estamos midiendo jugabilidad sino calidad visual.
Hay que mencionar que NVIDIA introdujo una nuevo nivel del Transparency Supersampling con un valor de 8X MSAA, esto permite lograr bordes y alisados en objetos casi imperceptibles a la vista, de esta forma la imagen luce mas real. Sin embargo al activar esta opcion, la jugabilidad decae enormemente, posee un castigo en FPS que no se ve reflejado en mejoras realmente notorias en la imagen. Además integró un nuevo valor de CSAA: 32x, esto añade 8 niveles de sampleo de Antialiasing extras a la anterior (16xQ) logrando mejores alisados.
Luego de ver las capturas de los juegos, es tiempo que ustedes decidan cual se ve mejor.
Temperatura y Consumo
La verdad, desde que se lanzó esta tarjeta e inclusive antes se comentaba por todos lados sobre su temperatura y su consumo. Luego al momento que se lanzaron, los muchos reviews que aparecieron hicieron eco de ello y reafirmaron las dudas y temores de los usuarios, la tarjeta se calentaba como el infierno y consumía demasiado.
Temperatura
El problema de temperatura era debido a que, la curva de relación entre Temperatura y Velocidad del Fan era muy lenta, o sea, reaccionaba lento en base al aumento de temperatura. Esto lo comprobamos ya que al finalizar las pruebas de juego, o sea, al dejar de jugar tocábamos la tarjeta y esta hervía.
Decidimos comprobar como es la curva de respuesta del Fan ante la temperatura y obtuvimos los siguientes valores.
Como pueden apreciar, cuando la tarjeta logra 94ºC el fan apenas se alza en un 60% de operación. Qué temperatura esperaba tener para subir más?
Luego de ello configuramos el Fan al 100% y comprobamos la curva de caida y de estabilidad de temperatura bajo carga.
Ahora tenemos una temperatura decente para poder operar sin problemas, pero agregamos el ruido provocado por el ventilador que está al 100%, el cual no es en exceso ruidoso como el de las tarjetas AMD/ATI (secador de pelo), pero igual molesta.
De todas formas, NVIDIA liberó una actualización de la VBIOS con lo que esta curva se mejora por lo que no sufriríamos de calor en exceso sino que el Fan actuaría de mejor manera, además de mejoras internas y de consumo. No se preocupen que las tarjetas GTX 470/480 que salieron a la venta cuentan con la nueva VBIOS (70.00.1A.00.02), por lo que no necesitarán actualizarla.
Consumo
Esta es otra de las preocupaciones de los usuarios con respecto de estas tarjetas, es por ello que cogimos nuestro Consumímetro (Patente Pendiente) e hicimos las pruebas pertinentes. Antes que vean los números, les advertimos que son de la plataforma completa, no corresponden al consumo propio de las tarjetas de video.
Como pudimos observar del grafico de consumo, la nueva tarjeta de nvidia consume y harto, es por ello que recomiendan tener una fuente de poder de 650W con una buena cantidad de amperes en la linea de 12v. Asi que si tienes una fuente Omega o de esas con luces por todos lados, ni piensen en comprarse esta tarjeta.
Overclocking
Overclockear la tarjeta no es tan complicado, lo malo es que hay pocas utilidades que la soportan actualmente, en este caso utilizamos la única que de forma oficial la soporta que es provista por EVGA, estamos hablando del EVGA Precision, que en su ultima versión (oficial) soporta las nuevas GTX470/480. Otra utilidad es el MSI Afterburner, pero aún no sale la versión oficial, sino que se encuentra soportada en una versión beta especial.
Hay que mencionar que esta familia de tarjetas (Fermi) poseen la relación entre GPU Clock y Shader Clock linkeada, o sea, que a medida que subimos uno subimos el otro en la relación existente, la cual es de 1:2, esto quiere decir que por cada Mhz que modificamos en el GPU Clock, modificamos 2 Mhz en el Shaders Clock.
Este fué el overclock logrado de forma 100% estable, como pueden ver de la captura, aumentamos de forma manual la velocidad del Fan al 100% para de esta forma evitar inestabilidad por culpa de la temperatura. Con esta configuración corrimos nuevamente las pruebas y obtuvimos los siguientes resultados.
OJO: no modificamos el voltaje del gpu ni de las memorias, solamente movimos los sliders para modificar las frecuencias.
Como pudimos apreciar, en muchos casos con overclock la tarjeta se despega mucho mas de la HD5870 y se acerca peligrosamente a la HD5970, superandola en pocas ocasiones. Realmente un aumento de frecuencias beneficia a esta nueva arquitectura, sin embargo su consumo y la necesidad de tener un ambiente refrigerado es crucial.
Palabras Finales
Tarde pero llegó. Los 6 meses más largos que jamás haya vivido Jen Hsun Huang llegaron a su fin, y luego de darle la «oportunidad» a su competidor directo (AMD) de lanzar productos con su nueva arquitectura liderando TODOS los segmentos de precio, ha presentado de manera oficial a los consumidores los primeros ejemplares basados en su arquitectura de nombre código Fermi.
Los resultados que observaron en las páginas anteriores son bastante claros: en la mayoría de los juegos la GTX 480 rinde varios puntos porcentuales más que la HD 5870, por lo que en el rigor del papel «es el GPU más rápido del mundo». Esto, claramente debe sopesarse adecuadamente con el precio que tiene, ya que no nos parece tan evidente que un jugador (descartando fanbois) en su sano juicio quiera invertir un 25% más de presupuesto para tarjeta de video con el objetivo de lograr un 10% más de rendimiento. La comparación contra la HD 5970 tampoco procede, ya que aunque destroza el rendimiento de la GTX 480 vale un 40% más.
El paso que está dando NVIDIA es coherente con sus desarrollos anteriores: la GTX 480 teniendo un sólo GPU es más rápida que la GTX 295 que monta dos; probablemente a futuro también veamos un monstruo de dos cabezas basado en Fermi que sea muy, muy rápido… pero para eso NVIDIA va a necesitar tiempo y eso es precisamente lo que no tiene. ¿Por qué? Simple: hoy la GTX 480 es más rápida (y más cara) que la HD 5870, pero por otra parte AMD ha tenido 6 meses ya para perfeccionar la arquitectura por lo que es de esperarse que más temprano que tarde aparezca algo parecido a una «HD 5890» con arquitectura mejorada y frecuencias más altas, lo que le quitaría la corona a NVIDIA y además le pondría más presión de precio ya que movería a la HD 5870 varios dólares más abajo.
Todo esto suena a hardware-ficción, y sabemos que podemos equivocarnos, pero 6 meses en la industria del silicio pesan mucho y sobre todo si el resultado se ve relativamente «inmaduro» (como acusan el enorme tamaño del GPU, su TDP y el también gran y ruidoso sistema de ventilación que necesita para mantener a raya el calor) indicando que para mejorar esos factores se necesitará más tiempo aún.
Se agradece que la tarjeta sea fuerte en cálculo de propósito general (eso que ustedes han escuchado como GPGPU computing) y que también se hayan subido al tren de la teselación (algo que AMD hizo hace mucho tiempo), pero mientras no aparezcan más (y con más nos referimos a MUCHAS y POPULARES) aplicaciones de uso cotidiano que utilicen el poder de proceso del GPU, esto queda como un agregado y no como una característica definitoria del atractivo de los productos.
Esperamos pronto probar la GTX 470, que a primera vista al situarse justo en medio de las HD 5870 y la HD 5850 (tanto en precio como en rendimiento) podría ser la tarjeta gamer high end por excelencia.
Por ahora sólo podemos decir ¡POR FIN!. Se echaba de menos algo de competencia.