Hace tres semanas, NVIDIA lanzó al mercado su nueva tarjeta para entusiastas de los videojuegos. Para analizarla, estrenamos un riguroso nuevo sistema de pruebas que mostrará realmente como rinden las VGA. Lean otro review con la mirada particular de MADBOXPC.
Para muchos, la escena de las tarjetas de video está algo aburrida. Considerando toda la acción que vimos hace 18 meses atrás, con la aparición de la 8va generación GeForce de NVIDIA, la que prácticamente duplicaba el rendimiento de la generación anterior y todo el revuelo mediático que levantó la hiperpublicitada arquitectura R600 de la recién adquirida ATI, que finalmente no resultó ser todo lo poderosa que anunciaban sus infladas especificaciones y que tuvo que mantener competitividad escondiéndose en la trinchera de los precios, el material de desvelo de muchos de nosotros hoy perdió bastante interés.
Aunque para el bolsillo del comprador suena completamente razonable que la lucha se centre en precios más atractivos sin perder poder de procesamiento, muchos «insensatos» entusiastas hoy esperan ansiosos que vuelva a haber otra batalla por el rendimiento. Todo lo que ha ido apareciendo en el último tiempo lo único que ha hecho es aumentar la competitividad por precio; la aún vigente (y excelente opción) 8800GT introdujo el núcleo G92, que abarataba costos por el encogimiento del proceso productivo y que hacía que el rendimiento de las tope de línea anteriores se pusiera al alcance masivo de los jugadores hizo que muchos se ilusionaran con los rumores que comenzaron a circular sobre el brutal performance de la serie 9 próxima a salir. Pero no había mucho para ilusionarse: la familia GeForce 9 no traía ningún cambio arquitectónico grande sobre la serie 8000; sólo el paso a 65nm que daba espacio a seguir subiendo algunos megahertz, los que aún así no estaban demasiado lejos del techo máximo alcanzable. Quizás fue que NVIDIA no debería haber lanzado la 8800GT para reservarse G92 para productos sólo de serie 9 (aunque sin ese lanzamiento hubieran sucumbido ante RV670 que renovaba la gama media-alta), quizás fue que no deberían haber lanzado la serie 9 hasta haber tenido una nueva arquitectura (ya que por parte de AMD no tienen en el corto plazo un producto que compita contra G92)… algo pasó, porque los entusiastas queremos acción y no hay acción por ninguna parte.
Para los que no tienen una VGA quizás sea interesante esta nueva generación, pero para los entusiastas que ya tenían el modelo tope de línea anterior quizás el incentivo vaya más por no perder vigencia que por realmente ganar rendimiento.
Los que vieron el comercial de Petit Fort en su momento recordarán el siguiente diálogo, que cabe como anillo al dedo:
Esposa: ¿Hola mi amor, mucho trabajo?
Esposo: Sí, demasiado. ¿Qué hay de comer?
Esposa: Yummm… unos ricos fritos de espinacas.
Esposo: ¿¡Cómo!? ¿Otra vez lo mismo? ¡Tú nunca me das las cosas que a mi me gustan!
Esposa: Es que a usted hay cosas que le gustan pero no lo alimeeeentan.
Esposo: ¡Me voy a la casa de mi mamá!
Lo malo es que ni la mamá, ni la esposa tienen Petit Fort en esta historia.
Mejor veamos que tiene NVIDIA dentro de la olla para mostrar y tratar de convencernos, sino por el estómago, por el bolsillo.
En esta oportunidad tenemos para destripar un modelo de GeForce 9800GTX proveniente de Asus, a primera vista destaca el sticker que se superpone al diseño original y de referencia de las bandas blancas, que a pesar de todo se translucen a través del diseño (ver brazo izquierdo de la niña del sticker).
Un PCB (Printed Circuit Board) bastante poblado, con variados elementos de montaje superficial. Destacar que no se exhiben chips de memorias, solamente algunos Circuitos integrados encargados de regular el voltaje tanto para el GPU como las memorias. En la esquina superior derecha se distinguen los 2 conectores SLI de esta tarjeta, los que permiten la realizacion de la configuración conocida como 3-Way SLI.
El panel de salida de la 9800GTX, compuesto por 2 conectores DVI-i Dual Link y una HDTV-Out con capacidad para HDCP.
Al retirar el cooler, tenemos a nuestra disposición el PCB al desnudo, 8 chips de memoria rodean al GPU G92-420. Para la regulacion de la tensión, tenemos 4 fases para el GPU y 2 para las memorias. Asimismo esta tarjeta necesita de 2 conectores de poder PCie de 6 pines, los cuales se encargan de suministrar toda la energía que necesita.
El G92-420, fabricado en 65nm posee 754 Millones de transistores, trabaja a 675Mhz y posee 128 Stream Processors que trabajan a 1688Mhz cada uno.
Los chips de memoria que monta la GeForce 9800GTX son Samsung de 0.8ns, cuya frecuencia teórica máxima es de 2500Mhz efectivos (1250Mhz).
Tal como se lo comentamos en el artículo que publicamos el día del lanzamiento de la GeForce 9800GTX, las especificaciones técnicas son las siguientes:
Asimismo, en ese mismo articulo les mencionamos las novedades que incorpora esta tarjeta:
3-Way SLI: Al incorporar un segundo conector SLI, la Geforce 9800GTX te permite conectar 3 de ellas en SLI de esa manera incrementar la experiencia de juego. Este tipo de configuración es bastante útil cuando poseemos monitores sobre las 24″ o 26″.
Hybrid Power: Si la crisis energética te tiene apagando cuanta luz tengas encendida en tu casa esta tecnología te viene como anillo al dedo, Hybrid Power apaga completamente la tarjeta de video mientras la carga no sea necesaria de aceleracion 3D. Por el momento solo estará disponible para plataforma AMD gracias al NFORCE 7x0a, pero en los próximos meses aparecerá la variante para Intel.
Mejoras Multimedia: Inclusión de un nuevo Decoder para visualizar 2 videos o películas HD a la vez, además de mejoras en el procesamiento del color con el Digital Picture Enhancements.
Para probar la NVIDIA GeForce 9800GTX usaremos un sistema equilibrado con componentes que acompañarán al rendimiento de la tarjeta y los productos con que la compararemos (aparte de tratar de resistir de la mejor manera posible al tragarecursos que es Windows Vista).
Compararemos la:
- NVIDIA GeForce 9800GTX
- NVIDIA GeForce 8800GTS 512 MB (G92)
- AMD ATI Radeon HD3870X2
Usando en Hardware:
- CPU: Intel Core 2 Extreme QX6850
- Memoria RAM: 4x1GB Corsair XMS2 CM2X1024 6400C4 corriendo a 800Mhz y latencias 4-4-4-12
- Placa madre: Asus P5E
- Disco Duro: Seagate 7200.10 250Gb
- Fuente de poder: HEC Zephyr 750W
- Monitor: Viewsonic VX2255WMB
Y en Software:
- Windows Vista 32bit + SP1
- 3DMark 2006 1.1.0
- Fraps 2.9.4
- Crysis 1.2
- Call of Duty 4 1.5
- Bioshock 1.1
- Company of Heroes 1.71
- Need for Speed: Pro Street 1.0
- Tombraider Anniversary 1.0
Desde este review en adelante, decidimos dar una vuelta radical en cuanto a nuestras metodologías de prueba. Aunque en el último tiempo la tendencia era ocupar cada vez menos los conocidos «timedemo» en pro de ocupar mediciones en tiempo real usando software como FRAPS para poder mostrarles promedios reales de rendimiento de cada uno de sus juegos favoritos, sentíamos que el resultado que les entregabamos estaba cojo. ¿Y cojo por qué? Porque lo que ustedes veían como un promedio no constataba que tan estable era ese promedio durante toda la medición. Perfectamente podía pasar que una tarjeta diera rendimientos espectaculares en escenarios interiores (que por lo general son menos complejos gráficamente) y framerates muy mediocres al salir a exteriores… haciendo que el «promedio» que ustedes veían fuera algo muy manipulable y donde finalmente podíamos hacer que ganara la tarjeta que quisiéramos si así lo hubiéramos deseado.
Entonces, no más timedemos (que ya hemos visto que son completamente manipulables; tiempo atrás todos todos leyeron el rumor de que NVIDIA manipulaba vía drivers el rendimiento en el timedemo más conocido de Crysis, antes ha habido escándalos por lo mismo en 3DMark, y no nos extrañaría para nada que todos los benchmark más famosos (timedemos incluídos) hayan recibido una manito de gato para sacarle hasta el último FPS posible (manito de gato que no necesariamente se reflejaría en la experiencia de juego que ustedes disfrutarían), y no más «promedios» de rendimiento. ¿Cómo entonces?
Sólo pruebas de juego en tiempo real, de escenas seleccionadas por ser representativas del juego en cuestión (si es que hablamos de escenas interiores, exteriores, llenas de villanos, paisajes vacíos, etc, tenemos que jugar en todos esos lugares para ver que tanta diferencia hay entre uno y otro escenario) que monitoreamos segundo a segundo, para entregarles el rendimiento de esa misma manera: segundo a segundo. De una manera muy similar a como testean nuestros colegas de www.hardocp.com, que tienen una doctrina muy ortodoxa a la hora de hacer pruebas pero de la que compartimos algunas ideas, como el hecho de encontrar más valioso el mostrar resultados segundo a segundo (aunque cosas como comparar «la máxima configuración jugable» de distintas tarjetas nos parecen una tiradora de mechas… de todas maneras damos el crédito de este método de pruebas a Kyle y sus secuaces: lo bueno está para ser mejorado).
Con nuestras nuevas gráficas ustedes podrán comparar con el video de la secuencia que mecanizamos y ver en que partes es cuando más se exige al hardware. Con esto podrán ver si el rendimiento es parejo, irregular, aceptable o de plano hace que tengamos que replantearnos nuestra compra. Estos nuevos gráficos también hacen que ustedes puedan si desean probar su propio hardware y constatar nuestros resultados (nuestra batería de savegames está disponible para todo aquel que los pida), ya que ahora los reviews de MADBOXPC están planteados directamente desde la silla de los gamers: no más resultados irreproducibles.
Elección de Juegos y su Configuración
Para probar las VGA, elegimos juegos que sean representativos de la oferta que la industria tiene en la actualidad; los shooters en primera persona más populares: Crysis, Call of Duty 4 y Bioshock (representando distintos engines que se comportan de distinta manera tanto con el hardware como con los drivers), un juego de estrategia en tiempo real: Company of Heroes, un juego de carreras de autos: Need For Speed: Pro Street, y un juego de aventuras en tercera persona: Tombraider Anniversary. Todos muy diversos en cuanto a visualidad, exigencia y jugabilidad, por lo que podrán observar mucho mejor el rendimiento general de los productos que analizaremos.
¿Y que configuración gráfica ocuparemos? Por lo menos para los reviews de VGAs high-end los juegos los probaremos con las siguientes configuraciones:
Crysis: Todos los detalles gráficos en High (Very High sólo es aceptable si vamos a testear configuraciones SLI o CrossfireX, sin filtros activados (el uso de filtros en Crysis en Windows Vista realmente llevaba el rendimiento al suelo, y para hacer nuestras pruebas reales necesitamos que los framerate por lo menos superen los 10FPS, sino es muy difícil obtener números fiables) y corriendo en modo DirectX 9 (el modo DirectX 10 sólo se justifica para usar la configuración Very High, y además penaliza el rendimiento de los modos más bajos sin entregar una mayor calidad gráfica).
Call of Duty 4: Todos los detalles gráficos seteados en su máxima calidad, texturas Extra, 4 muestras de antialiasing (4xAA) y 16 muestras para filtrado anisotrópico (16xAF). Por suerte el motor de COD4 no es tan demandante y permite disfrutar del eye candy sin tener que sacrificar experiencia de juego.
Bioshock: Todos los detalles gráficos seteados en su máxima calidad, modo DirectX 10. Antialiasing desactivado, debido a que AMD aún no logra que sus drivers logren aplicar antialiasing en DirectX10. NVIDIA con sus drivers 174.74 hizo que se pudiera usar antialiasing en DirectX10 sin problemas, por lo que suponemos que en el corto plazo AMD hará lo mismo. No olvidemos que el Unreal Engine 3 inicialmente no permitía el uso de antialiasing de ninguna manera, ya que su técnica de iluminación «deferred lightning» no era compatible con ello. Filtro anisotrópico utilizando 16 muestras (16xAF).
Company of Heroes: Shaders en calidad alta (desestimamos el uso de calidad DirectX 10 ya que tiraba el rendimiento al suelo sin entregar una mejora de calidad notoria… puede que DirectX 10 haga muchas cosas de manera «choriflai» usando cálculo procedural para obtener el mismo resultado gráfico, pero si es a costa del rendimiento mejor hagamos las cosas a la antigua ;-). Todos los settings en su máxima calidad (excepto las texturas que fueron colocadas en High en vez de Ultra debido a un bug reconocido por Relic que hace que el juego se caiga de vez en cuando al usar el setting Ultra: inaceptable), filtros 4xAA y 16xAF. Para este juego probamos resoluciones 1280×1024 y 1600×1200 en vez de 1440×900 y 1680×1050 debido a que FRAPS + VGA AMD + Windows Vista + esas resoluciones daba un crash que hacía imposible testear.
Need For Speed: Pro Street: Todos los detalles gráficos seteados en su máxima calidad, filtro antialiasing en 4xAA y corrección de anisotropía en 16xAA.
Tombraider Anniversary: Todos los detalles gráficos seteados en su máxima calidad, 4 muestras de antialiasing y 16 de filtrado anisotrópico.
Ojo que para los amantes del overclock «deportivo» incluiremos en nuestro set de pruebas reales a 3DMark 2006 para poder darles una idea de cómo rendirán los productos si los queremos someter a una sesión de benchmarking competitivo extremo.
En 3DFraud 2006 los resultados muestran que la 9800GTX rinde poquito más que la 8800GTS G92 debido a su frecuencias levemente más altas. La HD3870X2 se impone sobre ambas llegando arriba de los 15000 puntos. Overclockeros, tomen nota. Pero no elijan aún, tenemos que ver que tal rinden para lo que fueron diseñadas: para jugar.
Aún cuando estamos ejecutando Crysis sin ningún filtro de postproceso y sin acceder a la mayor calidad gráfica disponible, los resultados muestran que una buena experiencia de juego requiere de una VGA poderosa. Windows Vista consume mucho más recursos que XP, por lo que si quieren estrujar hasta el último FPS la elección correcta de sistema operativo es Windows XP.
La NVIDIA 9800GTX logra consistentemente entregar más rendimiento que cualquiera de las otras opciones testeadas; en los momentos de menor exigencia gráfica los peaks de la 9800GTX sobrepasan por varios FPS a la 8800GTS 512MB y por un poco más a la HD3870X2. A medida que aumentamos la resolución a la que corremos nuestras pruebas, el rendimiento de ambas tarjetas NVIDIA se despega notoriamente de la HD3870X2 que presenta caídas en el rendimiento que hacen que Crysis no sea jugable satisfactoriamente a 1680×1050. Con la 9800GTX (y la 8800GTS 512MB en ligeramente menor grado) la experiencia se mantiene en el borde de lo jugable, teniendo sólo por momentos pérdidas de jugabilidad. Analizando el rendimiento promedio de la 9800GTX, tenemos que corre de un 12 a un 15% más rápido que la 8800GTS 512MB, lo que podemos calificar como ligeramente notorio. Contra la HD3870X2 las diferencias crecen, empinándose desde el 30 al 50% de rendimiento sobre la tarjeta de AMD, que como ya vimos presenta severos problemas de jugabilidad a 1680×1050.
El motor de COD4 es mucho menos exigente que Cryengine 2, rindiendo en los peores momentos (y teniendo además activados los filtros antialiasing y anisotrópico) mejor que Cryengine 2 en sus escenarios menos exigentes.
En los gráficos podemos observar que los peaks para las tres tarjetas son muy similares, existiendo las mayores diferencias en los espacios abiertos, donde por un asunto que probablemente está relacionado con los drivers la HD3870X2 rinde muy por debajo de la NVIDIA 9800GTX. Aún así, las tres tarjetas tienen la jugabilidad asegurada en todo momento incluso a 1680×1050.
Para esta prueba en particular, no podemos asegurar que la 9800GTX rinda consistentemente mejor que la 8800GTS 512MB, ya que la situación segundo a segundo se mantenía siempre dentro del empate técnico. De haber alguna diferencia, es imperceptible. Respecto a la HD3870X2, por la baja de rendimiento en espacios abiertos, si sacamos promedios generales la 9800GTX rinde de un 10% a un 15% más.
En reviews anteriores, habíamos observado que en Windows XP, las tarjetas de AMD tenían un rendimiento sólido y sobre cualquier opción de NVIDIA. Al parecer los drivers de AMD tienen buenas optimizaciones para juegos basados en el UnrealEngine 3 lo que les permite mostrar toda la potencia existente en sus productos.
Windows Vista nos muestra una situación ligeramente diferente. A 1024×768 la 9800GTX de NVIDIA logra una ventaja (aunque no demasiado notoria, un 10% máximo) sobre la 8800GTS 512MB y la HD3870X2. Al ir subiendo la resolución las cosas van cambiando, y a 1440×900 hay un empate entre la 9800GTX y la HD3870X2 que se transforma en un 13 a 15% de superioridad de la HD3870X2 a 1680×1050. De todas maneras, los framerate incluso a la resolución más alta que testeamos indican una excelente jugabilidad en todo momento, sin caídas en el rendimiento por parte de las 3 tarjetas.
Según podemos ver, NVIDIA aquí se encuentra en desventaja, sobretodo por el hecho de que UnrealEngine 3 es uno de los motores que más títulos disponibles tiene en la actualidad y que más posibilidades tiene de aparecer en otros títulos a futuro por su buen aprovechamiento de los recursos.
El futuro lo definirán la aparición de mejores drivers de parte de ambas compañías (NVIDIA por lo menos ya tiene controladores que son capaces de hacer antialiasing en UE3 en modo DirectX10, lo que aún cuando rinde menos le da una ventaja cualitativa por sobre AMD; en las tarjetas AMD la posibilidad de hacer esto está pero los desarrolladores son los que no han permitido que ocurra hasta el momento, existiendo la posibilidad de antialiasing sólo en modo DX9 y cambiando el nombre del ejecutable, pero a costa de no realizar el rendering de todos los elementos en pantalla, como algunas nieblas volumétricas).
Este juego aún cuando no tiene una calidad gráfica comparable a la de los últimos motores para FPS nos presenta un escenario complejo donde la extensión del terreno y la complejidad de los objetos hacen que una buena tarjeta gráfica sea necesaria si queremos jugar con todas las opciones de calidad visual activadas.
Al evaluar las tres tarjetas tenemos que su rendimiento es muy similar, aplanándose la curva al ir aumentando la resolución y obteniendo empates técnicos al intentar comparar los promedios de rendimiento de cualquiera de las tres tarjetas. La fluidez está asegurada con cualquiera de las tres opciones, no habiendo caídas notorias en nuestras pruebas. Los peaks obtenidos al comienzo de las pruebas nos muestran que no es un motor que «cape» el rendimiento de las tarjetas, pudiendo entregar FPS altos si lo rendereado es lo suficientemente sencillo.
1024×768 nos muestra la excepción más notable, haciendo que la 8800GTS 512MB se arranque de la línea que siguen las otras dos VGA durante un segmento de la prueba. Los promedios eso sí no se ven alterados, siendo nuestra opinión que para jugar a cualquiera de las tres resoluciones las tres VGA se comportan de la misma manera.
Aquí podemos ver que la 9800GTX a medida que aumenta la resolución muestra ser la tarjeta más poderosa. A 1024×768 empata con la 8800GTS 512MB, pero a 1440×900 una pequeña ventaja y la notoria victoria a 1680×1050 hacen que se evidencie el mayor poder de la 9800GTX.
De compararlas con la HD3870X2 ni hablar, donde un más que evidente problema de drivers (que probablemente no sepan sacar partido a los dos GPU de la tarjeta de AMD ) hacen que el rendimiento de la opción dual de AMD sea muy menor al de ambas tarjetas NVIDIA.
La jugabilidad con la 9800GTX y la 8800GTS está asegurada a todo momento. Para la HD3870X2 jugar a 1680×1050 no nos dará una experiencia demasiado satisfactoria, aunque los juegos de carreras a diferencia de los scooters no necesitan de 60FPS mínimo en todo momento para darnos una experiencia aceptable.
En este juego la diferencia, tanto técnicamente como experiencialmente entre la 9800GTX y la 8800GT 512MB es casi inexistente. Menos de un 5% de mejora al medir, y FPS que sobradamente superan la barrera necesaria para una experiencia de juego 100% fluida hacen que cualquiera de las dos opciones sea válida.
La HD3870X2, aún cuando presenta framerates inferiores a los que entregan las dos tarjetas NVIDIA que probamos (debido a un deficiente soporte Crossfire, problema que se supone estaba superado en los drivers 8.4, pero que podemos ver que continúa) no compromete la experiencia de juego para nada, manteniéndose la fluidez en todo momento, siendo en su peor momento cercano a los 50FPS a 1680×1050.
Los que busquen aún más rendimiento con su 9800GTX (o cachiporrearse con los amigos sacando puntajes más altos en 3DMark) se llevarán una grata sorpresa, ya que esta tarjeta tiene bastante potencial de overclock: Partiendo desde los 675 Mhz a los que viene seteado su GPU, sin mucho esfuerzo podemos llegar arriba de 800Mhz 100% 3DMarkeables.
El máximo al que pudimos llegar con la estabilidad suficiente para correr 3DMark2006 fue de 815 Mhz, casi un 21% arriba de la frecuencia nominal. Los shaders los dejamos subir de manera sincrónica, obteniendo 2038 Mhz, y las memorias, desde los 1100Mhz a los que vienen configuradas desde la fábrica, llegaron sin problemas a 1250 Mhz, es decir 2500 Mhz considerando el DDR, los que calzan perfecto con su velocidad de acceso de 0.8ns.
Lo que no debemos olvidar es que 3DMark 2006 no es la última palabra en estabilidad. Aún cuando los seis test de Futuremark terminaban sin problemas ni mostrando errores gráficos, a la hora de jugar los benchmark 100% reales con que construimos nuestra batería de pruebas nos encontramos con algunos problemas al utilizar las resoluciones más altas, sobre todo en Bioshock (que curiosamente mostró ser más exigente con la estabilidad del overclock que Crysis, por ejemplo). Esto implicó que para lograr una completa estabilidad de la tarjeta para uso 24/7 tuviéramos que bajar las frecuencias a 790 Mhz en GPU (17% de aumento), 1975 Mhz en Shaders (17% de aumento) y 1240 Mhz en memorias (13% de aumento). Nada mal para ser un producto tope de línea.
Y bueno, veamos cuanta mejoría REAL obtenemos overclockeando en ese rango en las aplicaciones que constituyen nuestro set de pruebas.
Para cerrar este capítulo, les hacemos el siempre importante recordatorio: MADBOXPC no asegura que todas las 9800GTX (aún cuando nosotros compramos una tarjeta retail, no una muestra de ingeniería) logren el overclock exhibido. Ustedes en sus casas podrían llegar a un resultado un poquito menor… o mayor.
Los que estén preocupados de la cuenta de la luz a fin de mes podrán respirar con tranquilidad, ya que las pruebas de consumo que realizamos, midiendo el gasto total de la plataforma de testeo al estresar la VGA fuertemente muestran lo siguiente:
La NVIDIA 9800GTX consume casi exactamente lo mismo que la 8800GTS 512MB, al estar basadas ambas en G92 (construido a 65nm) aún cuando nos ofrece un rendimiento ligeramente superior, y ambas se mantienen muy por debajo de lo que puede llegar a gastar una HD3870X2, la que por muy optimizado que esté el consumo del RV670 le hace honor al sufijo X2 que lleva. Al overclockear la 9800GTX a las frecuencias que mostramos en la página anterior (790Mhz GPU, 1975Mhz Shaders, 2480Mhz Memorias), el consumo de la plataforma se elevó a 325W Full, manteniéndose aún lejos de los números de la HD3870X2.
Otra cosa que no podemos dejar de mencionar en este capítulo es que la 9800GTX soporta la característica HybridPower, el cual si poseemos la placa madre adecuada (a fines de mes habrá disponibles placas que lleven montado el chipset 780a SLI, 750a SLI o 730a de NVIDIA, para procesadores AMD) al encontrar que la tarjeta de video no está siendo exigida (en el escritorio de Windows Vista, por ejemplo) la desactiva y renderea la imagen con el chip gráfico que incluye la placa madre para lograr bajar un puñado de watts el consumo de nuestra máquina.
Los que quieran disponer de esta característica en equipos con un procesador Intel deberán esperar varios meses hasta que NVIDIA decida lanzar nuevos chipset para renovar la gama 700i.
Aunque no nos encontramos ante una tarjeta que sea una gran «novedad» en cuanto a características (ya con la aparición de la 9600GT les dijimos que la serie 9 de NVIDIA era más bien un refrito de la serie 8 que una nueva arquitectura, algo similar a cuando apareció la 7900GTX para reemplazar a la 7800GTX), ya que el núcleo de la 9800GTX sigue estando basado en el G92 que mueve a las 8800GT – 8800GS – 8800GTS 512MB, siendo la mayoría de las nuevas características adiciones que mejoran la experiencia multimedia (ver videos con colores más lindos y blablá) más allá de entregarnos más frames por segundo, la 9800GTX no necesariamente es una mala compra.
El rendimiento que tiene sobre las opciones de la serie 8 (un 15% máximo y no en todas los juegos que probamos) al ser comparado con el precio de la 8800GTS 512MB (CLP 206.000 vs CLP 168.000 en nuestro país o USD 299 vs USD 245 en e-tailers norteamericanos, un 22% de diferencia en ambos casos) hiciera parecer que no es una buena opción precio-rendimiento comparado con la versión G92 de la 8800GTS, pero el hecho de que el usuario entusiasta que usualmente cambia su hardware periódicamente pueda obtener un mayor precio al vender la VGA en un futuro upgrade hace que entonces la idea no sea tan mala. Todo el hardware se devalúa, y muy rápido… (odiamos que eso pase, pero no podemos hacer nada para evitarlo y es mejor tener en cuenta esa clase de factores) pero una 8800GTS G92 se devaluará mucho más rápido que una 9800GTX sólo por el hecho de tener un nombre que se le asocie con una generación pasada.
Además, para el entusiasta extremo que quiere resoluciones altísimas (en monitores que francamente no sé donde comprarán, ¿alguien sabe cuantos gamers en Chile tendrán un monitor que tenga una resolución nativa de más de 1680×1050?), la 9800GTX entrega la opción (inexistente en la 8800GTS G92) del 3-Way SLI, megapoder para megamillonarios con megamonitores.
Comparaciones con AMD no nos pidan. La HD3870X2 vale CLP 270,000 – USD 399, por lo que ese precio sumado a los gráficos con pruebas REALES, segundo a segundo, que estrenamos con este review (y que contradicen los números que entregan aberraciones del benchmarketing como 3DMark 2006) no resiste ningún análisis.
Review realizado por 6iE.CR
Edición por Marioace
MadBoxPC.com, Abril del 2008