La estrategia de lograr un producto barato y con una buena relación precio rendimiento no siempre tuvo una buena llegada con los jugadores ni pudo ser efectiva ante la ofensiva de precios que emprendió NVIDIA, ya con varios meses de penetración de sus productos en el saco. Aún así, fue coherente, y cuando lanzó su refresco de R600, el núcleo RV670, mantuvo su mismo esquema de precios y rendimiento transformándose en una muy buena opción para los que compran con la calculadora en la mano.
Hasta que AMD cedió. Dejando de lado su estrategia del último año de «no ofrecer un producto tope de línea», es que nos presenta ahora a la AMD ATI Radeon HD3870X2, su tarjeta más cara hasta la fecha (MSRP USD449) pero que aún así es mucho más barata que las opciones pelolais (Chilenismo: Gama Alta) de NVIDIA. Ofreciendo un rendimiento fuera de serie, que barrería con la GeForce 8800 Ultra anticipándose a la próxima jugada de NVIDIA en el high end, también dual GPU, es que nos enviaron esta muestra para que la analizaramos, desmenuzáramos, desarmáramos y para que aquí les contaramos la «firme» (Chilenismo: la «verdad»).
Entérense de los detalles de este lanzamiento en las próximas páginas, aquí en MADBOXPC. Aunque antes de continuar, los invitamos a hacer una nostálgica y retrospectiva mirada a los inicios de las tarjetas gráficas duales en la siguiente reseña al respecto (Cogan sus pañuelos).
Reseña: Tarjetas de video “Dos en Uno”.
La tendencia de la computación dual y los cómputos paralelos no es algo nuevo, esta tecnología que actualmente vemos más extendida y desarrollada en el ámbito de los procesadores, ya sea a través de múltiples núcleos funcionando en un solo procesador (dual-quad core) o múltiples procesadores multi-núcleo funcionando en una sola placa madre multisocket, ya tuvo sus incursiones en el ambito del procesamiento gráficos hace más de una década, demostrando que la idea de dos procesadores gráficos funcionando en paralelo estuvo en mente de los fabricantes desde otrora y que ha sido heredada y perfeccionada hasta nuestros días, desde luego el rendimiento alcanzado otrora nada tiene que ver con las exorbitantes cifras que puede alcanzar el hardware actual tanto en consumo como en rendimiento, esto como una consecuencia lógica de la evolución tecnológica.
Para este contexto histórico mencionaremos a vuelo de pájaro algunos datos que seguramente a muchos les traerá bastante nostalgia y una cuota de melancolía a sus corazones ya adultos pero que conservan la nostalgia de la infancia delante de un PC disfrutando de algun Monkey Island, Tyrian, Alone in The Dark, Doom, Wolfestein etc.
Uno de los princiales culpables del desarrollo 3D en los juegos y el primero en ofrecer soluciones gráficas duales, fue la desaparecida 3DFX Interactive o 3DFX simplemente, compañia fundada en 1994 cuyo rubro fue la fabricación y diseño de procesadores gráficos 3D y tarjetas gráficas para PC, su alcance llegaba desde chip y placas de video, hasta las maquinas de videojuego (arcade) que incorporaban chips 3dfx como
3DFX dominó el mercado ya entrado los 90, principalmente entre el 97-98, y tuvo sus apuestas en tarjetas gráficas duales con las Voodoo 2 1000 (90/90Mhz core y memoria) y Voodoo 5 5000, Voodoo 5 5500 y Voodoo 5 6000 series (166/166Mhz core y memoria), reliquias que revolucionaron y marcaron la tendencia en el desarrollo 3D de la epoca, que hasta entonces solo disfrutaba de las planimétricas graficas 2D. Estas tarjetas fueron las primeras en incorporar 2, e incluso 4 chips gráficos en una sola tarjeta y que marco la pauta para lo que podemos encontrar actualmente. 3DFX por cierto introdujo por primera vez el concepto de SLI que en ese entonces significaba «Scan-Line Interleave» y no «Scalable Link Interface» como la rebautizo NVIDIA años atrás para su tecnología Multi-GPU SLI, pero que se basan en el mismo concepto de unir dos tarjetas graficas para al funcionamiento en conjunto.
Finalmente 3DFX como sus tecnologías desarrolladas (Gráficas duales, SLI, Transform and Lighting – T&L-, decodificación MPEG) fueron absorbidas por NVIDIA Corporation, que en el 2000 termino por adquirir a 3DFX, eliminando de paso un serio contendor en el mercado de tarjetas gráficas, ya me pregunto que seria del mercado de tarjetas gráficas actualmente si 3DFX no hubiera sido absorbida por NVIDIA.
Por esa época, ATI (Array Technology Inc) que se dedicaba casi exclusivamente a las tarjetas gráficas, también siguió el concepto iniciado por 3DFX, uno de los primeros exponentes de la armada roja fue la mítica ATI Rage Fury MAXX, una tarjeta que incluía dos núcleos gráficos ATI RAGE 128 PRO (143Mhz) en un solo PCB con 64MB de memoria (155Mhz) y que ya incluía el método de rendereo Alternate Frame Rendering (AFR), que posteriormente fue introducido en la terna de métodos de rendereo cuando ATI anuncio su tecnología multi-GPU ATI Crossfire, como lo son los modos AFR, Scissor Mode y Supertile Mode.
ATI Rage Fury MAXX
XGI Technology (eXtreme Graphics Inc) fue otra de las compañías que se dedicaba al mercado de tarjetas gráficas, esta empresa nació de la unión de
XGI Volari Duo V5 Ultra
La historia de XGI Technolgy, como compañía independiente llega a su fin, cuando en el año 2006 fuera adquirida por ATI, según informamos en dicha ocasión aquí en MadboxPC.
Desde aquellos tiempos, los fabricantes esporádicamente en cada generación de tarjetas gráficas han presentado sus soluciones duales, aunque no son productos de producción masiva y se basan principalmente en incluir dos núcleos gráficos de la generación en curso en una sola tarjeta que en algunos casos puede ser un solo PCB o en dos PCB, quizás algunos de ustedes recuerden una las primeras incursiones de NVIDIA en el ultimo tiempo, para no extenderme demasiado solo las nombraremos, así hemos tenido:
por dos PCB con dos núcleos G71 cada uno (cuatro en total), una especie de QuadSLI en una sola tarjeta, aunque en la práctica eran dos unidas por un puente de interconexión. Pero para dentro de poco NVIDIA ya tiene preparado su proximo asalto Dual al mercado High End con
ASUS GeForce 6800 GT Dual
ASUS GeForce 7800GT Dual
NVIDIA GeForce 7950 GX2
Proxima NVIDIA Geforce 9800GX2
A diferencia de NVIDIA que sus soluciones duales siempre fueron productos High End (con excepción de la 6600 GT Dual), ATI/AMD a través principalmente de sus socios ensambladores o AIB (Sapphire, GeCube, HIS, MSI entre otros) se ha enfocado mas en productos Duales para el mercado mainstream, así lo han confirmado sus lanzamientos como
Gecube Dual Radeon X1600 Gemini
Sapphire X1950 PRO Dual
Todos los modelos anteriores han sido por iniciativa mas de los emsambladores de ATI que por cuenta propia, pero ahora ahora AMD/ATI hacen su debut en grande y de manera oficial con una gráfica dual gracias a
Inspección Visual
Aunque a primera vista pareciera que es la tarjeta de video más grande jamás vista,
Por detrás una placa metálica (que ya nos encargaremos de desmontar) tiene como función mantener en su lugar el disipador, a la vez que actúa disipando el calor de algunos componentes por sí misma. También tenemos a la vista los soportes para ambos núcleos RV670, que afirman el disipador y se encargan de que haga contacto parejo sobre los núcleos. Por el perfil, el panorama es el esperable: dos salidas DVI (las cuales podemos utilizar como salida HDMI con el adaptador DVI-HDMI que incluye el fabricante), el conector S-Video, y las ranuras donde saldrá el aire que ha retirado el calor del disipador. Como se puede apreciar, la solución de disipación ocupará dos slots de expansión en nuestro gabinete.
Con las Manos en la Masa
Una vez que agarramos el destornillador, era cosa de que tuviéramos un poquito de paciencia para retirar 16 tornillos y que luego tuviéramos el PCB de la tarjeta al descubierto ante nosotros, mostrándonos sus secretos. Una de las cosas que de inmediato llama la atención es el hecho de que cerca de cada núcleo hay solamente 4 chips de memoria (en vez de los 8 usuales).
Además de eso, vemos que el par de conectores CrossfireX (presente en las tarjetas ATI desde la aparición de
Lo que también se observa es que los conectores de energía PCI-Express mantienen el formato de 8 pines + 6 pines introducido en
En esta foto, lo único que podría ser relevante para el geek promedio es que aquí estaban los ocho chips de memoria que echábamos de menos en el frente del PCB. Los ingenieros de diseño de AMD colocaron estos chips en este lugar para evitar tener que hacer crecer el PCB hacia arriba o hacia los lados, manteniendo el mismo «estándar» de tamaño de las VGA High End de NVIDIA. El resto, muchos componentes muy chiquititos, de esos que uno pasa a llevar con el destornillador e inmediatamente nos transforman la tarjeta en un llavero gigante.
El siempre necesario close up al protagonista de este análisis: RV680, consistente en un conjunto de dos RV670 con esteroides (están clockeados a más M3g4hurtz que el RV670 que vimos en
Una pregunta que muchos entusiastas se harán al ver esta foto, es porque AMD no utilizó memorias GDDR4 de muy bajo nanosegundaje para este producto. Como pueden ver, las memorias son de 1.0ns, con un límite teórico de 2000Mhz. La explicación que tenemos a esta pregunta está en el precio sugerido para
Otro detalle que se observa es la casi inexistencia de capacitores en el PCB, esto debido al uso de fase de poder digital (en el caso específico de este producto DOS fases de poder, ya que tanto la administración de energía como el acceso a memorias son independientes en cada GPU; no olvidemos que esta no es una tarjeta «dual core», sino que es un par de GPUs en Crossfire, pero en un solo PCB)
Solución de Enfriamiento: Temperatura y Nivel Sonoro
Al desarmar el disipador, vemos que los componentes encargados de retirar calor de los núcleos son un par de grandes bloques de metal, que hacen directamente contacto con los núcleos RV670. Uno de los bloques es de aluminio y el otro de cobre; la diferencia tiene dos posibles explicaciones: una es que ya que Crossfire nunca divide la carga exactamente a la mitad entre los dos GPU, probablemente haya uno que se caliente más, y éste requiera de un bloque de cobre. La otra explicación es que debido a que el aire de la turbina pasa primero por un disipador y luego por el otro, se eligieron dos materiales diferentes para no perjudicar tanto al segundo disipador con el aire precalentado por el primer disipador.
Como decíamos, las aletillas de los bloques son enfriadas por el aire que entra al interior de la turbina y que es lanzado por esta a través de ellas hasta salir por las ranuras ubicadas en el extremo izquierdo de la tarjeta. Sobre los bloques de cobre va instalada la cubierta plástica que se encarga de canalizar el aire, y que para este modelo está decorada con los ojos de Ruby, la siempre joven chica de ATI. Los modelos fabricados por los distintos partners de ATI probablemente tendrán otras decoraciones.
Aquí podemos apreciar que en el reverso de la solución de enfriamiento el plástico desaparece para permitir que los bloques de cobre hagan contacto con ambos GPU (pueden ver los ocho bronces de montaje), junto con Pads de disipación para ayudar a enfriar los chips de memoria GDDR3, el chip PLX y otros componentes menores.
La placa metálica que estaba atornillada detrás del PCB, además de darle firmeza estructural al montaje del disipador, ayuda a disipar el calor de los chips de memoria ubicados en el reverso de la tarjeta. Esta placa, al igual que el disipador que está pintado rojo (de un rojo no muy atractivo a nuestro parecer) se calientan bastante durante la operación normal de
Nivel Sonoro
La tarjeta la probamos fuera de gabinete, montada solamente sobre la placa madre, y el ruido era bastante aceptable comparado con otros modelos de VGA High End. Incluso, el ruido a FULL velocidad (que se escucha cada vez que rebooteamos la máquina, y creánnos que no fueron pocas veces durante este review) es mucho más discreto que el de soluciones como la presente en
Arquitectura: Detalles y Especificaciones
Mucho tiempo tuvo que pasar para que apareciera una nueva tarjeta de video que intentara destronar a las GeForce 8800GTX/Ultra de NVIDIA, y si señores, es otra tarjeta de video de AMD/ATI.
Veamos sus características y descifremos el porque al menos en el papel nuevamente un producto de AMD/ATI aparece como el mas poderoso del mercado.
GPU: Utilizando 2 núcleos RV670XT (Radeon HD3870) esta tarjeta incorpora todas las mejoras que AMD/ATI introdujo en su Gama Media y que vino a traerles buenos dividendos luego de una funesta familia HD2000, en donde su mejor exponente la HD2900XT fue todo menos lo que prometió. A grandes rasgos el GPU llamado R680 funciona de la siguiente manera.
Cada núcleo RV670 se comunica con sus propios chips de memoria (512MB para cada uno) mediante los 256bits de interface, los núcleos se comunican mediante el chip PLX, el cual realiza la unión (Crossfire) entre los 2 cores. Este chip PLX es el mismo utilizado en tarjetas como la X1950Pro Dual que revisamos hace un tiempo atrás y posee 32 lineas de comunicación repartiendo 16 líneas para cada core en forma bidireccional.
Proceso de fabricacion a 55nm: Pasando de los 80nm (R600) a los 65nm (RV630 y RV610) ahora llegamos a los 55nm, lo que conlleva a mejorar el proceso de trabajo e insertar una mayor cantidad de transistores en un espacio más reducido (aumento de la densidad), es por esto que de los 700 Millones de transistores del R600 ahora el RV670 ofrece 666 Millones de transistores y en este caso esto se incrementa al doble con 1.33billones de transistores para el caso de la Radeon HD 3870 X2. Junto con la disminución del proceso de fabricación esta disminución acarrea un menor consumo energético, lo que viene de la mano de «en teoría» una menor temperatura de trabajo. En esta oportunidad los cores RV670 vienen seteados a una frecuencia bastante elevada (825Mhz) lo cual puede que limite mucho su porcentaje de Overclock.
Poder de Cómputo: AMD/ATI posee en esta tarjeta la primera tarjeta de video capaz de ofrecer sobre 1Tera FLOPS de poder de calculo, claro, debido a que estamos ante 2 GPUs RV670XT las cuales por separado pueden ofrecer 497 GigaFLOPS cada una, a diferencia de la hasta hoy todo poderosa GeForce 8800 Ultra que «tan solo» ofrece 384 Giga FLOPS.
Memoria: Con un total de 1024MB repartidos en 512MB por cada núcleo, además de tener 256bits de interface entre memorias y núcleos, podríamos en teoría hablar de que esta tarjeta realmente posee 512bits de interface de memoria, a diferencia de lo que paso con la HD2900XT, en donde los 512bits ni se notaron. Lo que hay que mencionar es que cada núcleo posee su grupo de memoria, no es una cantidad compartida, sino que cada GPU posee 512MB de memoria para trabajar, lo cual puede que cause cierto tipo de conflictos internos repercutiendo posiblemente en el rendimiento que obtenemos.
CrossfireX: Al igual que toda la familia HD3000, esta tarjeta soporta la tecnología CrossfireX de AMD/ATI, por lo cual, siendo ésta ya un Crossfire interno entre 2 tarjetas Radeon HD3870 (en teoría), al conectarla con otra HD3870X2 estaríamos generando un Quad Crossfire, o sea, 4 tarjetas de video funcionando a la par, aumentando drásticamente el poder de procesamiento. Claro está, los drivers para implementar una solución CrossfireX entre 2 tarjetas HD3870
X2 aún no se encuentran disponibles en forma oficial.
PowerPlay: AMD/ATI ya nos introdujo esta tecnología con las actuales Radeon HD3850 y HD3870, sobretodo luego del horror que sufrimos al ver como consumía la HD2900XT tanto en IDLE como en FULL LOAD. Es por ello que con la llegada de las nuevas HD3000, el tema del consumo está mas preponderante y vimos con alegría que la tecnología PowerPlay trabajaba de buena forma disminuyendo el consumo en gran medida, por ende, en tarjetas Duales como lo es la HD3870X2 es necesario mantener a raya el consumo energético.
DirectX 10.1: Si bien es cierto hasta el momento el uso de DirectX 10 solamente se ha visto reflejado en una baja de los FPS pero en ningún aspecto a mejoras del aspecto grafico comparado con el DX9.0c. En el papel las cosas se ven favorables, pero las mejoras son pocas en comparación al actual DX10 viéndolo desde el punto de vista del usuario. Obviamente para los programadores y desarrolladores de Juegos, este «update» sea algo bueno ya que soportaría filtrado con una precisión de punto flotante de 32bits.
UVD: En este caso el Unified Video Decoder posee tanto potencial que tu PC es capaz de reproducir sin problemas contenido de alta definición (HD) a 1080p (1920×1080) tanto en formato Blu-ray o HD DVD, e inclusive puede superar esa resolución y reproducir contenido HD en una resolución de 2560×1600. Todo esto solamente utilizando el poder de la VGA, dejando que el CPU quede liberado de este trabajo y dedicarse a otras labores.
PCI Express 2.0: Con el aumento del ancho de banda pasante este tipo de tarjetas debiesen en la teroría verse beneficiadas ya que al poseer demasiado poder de computo una interface de comunicación pequeña podría generar un cuello de botella, por ende los 16GB/s bidireccionales que ofrece esta interface asegurarán un ancho de banda suficiente.
Plataforma de Pruebas: Hardware y Software
Para este análisis, requeríamos de componentes tanto en hardware como en software que estuvieran a la altura del producto, y que permitieran concluir debidamente ante que clase de producto nos encontramos.
Es por esto que hicimos una selección del mejor hardware disponible para montar
Pero, conseguir una 8800 Ultra no es fácil. Casi no se vende en los retail de nuestro país, debido a que alternativas de mucho mejor relación precio rendimiento son las que gozan del beneplácito de los consumidores de hardware, además que como se pudieron enterar si es que leen MADBOXPC, NVIDIA ya descontinuó el modelo, dando tiempo a que las tiendas se deshagan del stock para luego introducir su próximo modelo High End (la comentada 9800GX2). Por esa misma razón, y en base a que no teníamos ninguna muestra de esa tarjeta, es que tuvimos que trabajar con una 8800GTX, overclockeando su núcleo, procesadores de shaders y memorias hasta la frecuencia de una 8800 Ultra. Costó (el calor complicaba las cosas) pero finalmente fuimos capaces de utilizarla recreando el comportamiento de una 8800 Ultra.
Para un artículo futuro quedarán la comparación contra un Crossfire de HD3870 convencionales (que no pudimos incluir en este análisis ya que AMD, que usualmente nos presta muestras para trabajar, en esta ocasión las tenía prestadas) y probar un par de HD3870X2 en modo Crossfire a ver si algún controlador futuro es capaz de trabajar en un modo CrossfireX de 4 GPU. (Tengan en cuenta que cuando AMD lanzó CrossfireX habló de escalar rendimiento sumando más de dos tarjetas, así que estamos a la espera).
Lo que ocupamos entonces en este análisis fue lo siguiente:
Hardware
- Comentarios
- Comentarios de Facebook