Ayer NVIDIA realizó en Chile una charla de capacitación técnica relativa a G80, PureVideo HD, Windows Vista y sus requerimientos, el Pisco Sour y demases.
El orador en esta ocasión fue Steve Sung, Field Applications Engineer (o Ingeniero de Aplicaciones de Campo en buen chileno). La charla comenzó hablando de Windows Vista, que como ya se habrán podido enterar, ya esta «listo», y pronto comenzará a ser distribuido a los armadores para que comiencen a configurar sistemas que rindan óptimo en este nuevo OS. En pocas palabras, lo que Steve planteaba era que Vista iba a ser un sistema operativo en donde tener una GPU relativamente poderosa era imperativo; la gran cantidad de efectos visuales de la interface Aero consumen una enorme cantidad de recursos (cuando aprenderás a OPTIMIZAR, tío Bill…) y solamente se podrá disfrutar de todos los chiches para el ojo si contamos con el hardware adecuado.
El sistema operativo dispondrá de un test que benchmarkeará los componentes de hardware de nuestra máquina, entregándonos distintos puntajes relativos a cada área del equipo, es decir un puntaje para CPU, otro para gráficas, etc. Estos puntajes tendrán una ponderación y permitirán obtener un puntaje final, en escala de
Obtener un buen puntaje en este sistema será muy difícil, ya que la escala es exponencial, y según lo que nos adelantó el evangelista de nVIDIA ninguna configuración de hardware actual, por muy poderosa que sea seria capaz de lograr un 6 en el test ya descrito. Mal por Microsoft; no se ve muy atractiva la idea de un SO que necesita un equipo de 2000 dólares para correr bien.
Y lógicamente después de introducirnos en el tema, empezó el cachiporreo propagandístico; la idea era demostrarnos que Windows Vista iba a ser imprescindible y que la única empresa que nos podría proveer de las soluciones gráficas necesarias para disfrutar de la experiencia Vista por completo era Graphzilla.
Las tarjetas graficas de nVIDIA que estarian soportadas por el driver para Vista WHQL
El panegírico aumentaba de intensidad, y ya la concurrencia lanzaba carcajadas a cada «ataque» de NVIDIA contra su competidor, AMD. (Que a todo esto él seguía llamando ATI, y nos confidenció que a opinión de los creadores de la marca GeForce la movida de comprar ATI había sido muy mala y a ellos más que asustarlos la absorción les ayudaba muchísimo en sus negocios ya que ahora venderían mucha más lógica de placas madres a Intel. Ademas, en su opinión no seria tan fácil para AMD ocupar sus fabs para desarrollar procesadores gráficos, ya que el margen de ganancia de un CPU es mucho mas alto que el de una GPU, y hoy en día debido a la compra AMD no quedo en condiciones económicas que le permitan darse ese lujo. Se le pregunto respecto de la rumoreada compra de NVIDIA por los azules de Otellini, pero aparte de decir que eso no era real, manifestó orgulloso que su firma era el único fabricante de GPUs «independiente» del mercado).
Pero bueno, hay que tener los pies en la tierra. La propaganda se veía fabulosa, pero nos gustaría ver con nuestros propios ojos un demostración real de estas capacidades maravillosas… de hecho el único tironcillo de orejas que le podríamos hacer a NVIDIA y a la charla es que es mil veces mejor propaganda traer una plataforma corriendo Vista y una VGA de ultima generación NVIDIA y mostrarnos efectos en tiempo real que sólo mostrarnos un PPT y videos. Estamos en el año 2006 y como buenos intrusos tech queremos ver y tocar todo. Tal como a veces dudamos de los
gráficos y presentaciones maravillosas que hace ATI (AMD), también miramos con cierta cuota de escepticismo los «maravillosos» PPT de otros fabricantes, en este caso NVIDIA. Para despejar todas las dudas, mil veces mejor una plataforma REAL corriendo aplicaciones REALES.
El pipeline unificado de la serie 8800
La arquitectura unificada promete no perder rendimiento en ciclos de GPU «muertos»
La presentación continuó mostrándonos las capacidades y características de G80, que ya habían podido ver en esta noticia, por lo que no ahondaremos demasiado en este tema, ademas de mostrar más gráficas donde el rendimiento de las nuevas tarjetas de los verdes aplastaba en rendimiento a ATI. Ver para creer; el rendimiento ya se ve espectacular por lo menos desde las especificaciones, así que para cuando podamos analizar una de estas tarjetas en nuestros laboratorios confirmaremos o desconfirmaremos las gráficas que vimos ayer. Ademas se presento el nuevo chipset de NVIDIA para Intel, el 680i que se supone es el chipset mas poderoso, rendidor y que nos permitiría llegar a los mejores overclocks posibles, ademas de disponer de tres slots PCI-E x16 que permitirían usar 3 tarjetas de video de distintas maneras
El Chipset 680i de NVIDIA, enfocado a los entusiastas del hardware.
Tres slots PCi-E nos permitirian usar hasta tres tarjetas de video en distintos modos
Ahora, la información que todos esperábamos. Al comenzar la ronda de preguntas, mucha gente, incluyéndonos estaba interesada en saber cual era el futuro de NVIDIA. Como ustedes pueden saber, la 8800GTX mide mas de 10 pulgadas, es decir mas de 25 centímetros, los que ya a duras penas caben en un gabinete actual. Si la tendencia se mantiene así (R600 de ATI también será bastante grande), tanto en tamaño como en consumo y generación de calor, pronto se iba a llegar a un punto inaceptable donde para disfrutar de alto rendimiento tendríamos que usar tarjetas gigantescas, pesadísimas, que consuman muchísima energía y además que generen tanto calor que impacten negativamente sobre el resto de nuestros componentes. La cosa de seguir así no se ve nada bien, ya que la tendencia mundial está precisamente orientada al ahorro energético, a las soluciones más silenciosas y a ir ocupando menos espacio en fierros.
NVIDIA G80
Buenas noticias son las que les traemos entonces: G80 es la ÚLTIMA arquitectura que seguirá la premisa de «MÁS RENDIMIENTO= MÁS TAMAÑO + MÁS CALOR + MÁS CONSUMO». La nueva arquitectura que ya se encuentra desarrollando nVIDIA en sus subterráneos mas recónditos intentará reivindicarse en este sentido, pues estará pensada para no caer en estas mismas debilidades que les hemos mencionado. La posibilidad de «apagar» distintas secciones de la solución en base a su utilización, lo que influiría positivamente en el consumo y la generación de calor es una idea que suena fuerte y que probablemente veremos estrenada en un hipotético G90.
Para finalizar, lanzamos la interrogante acerca de GPUs multinucleo. Hace unos días Valve realizó una conferencia donde habló acerca de multithreading en los juegos que utilicen sus engines. Hasta el momento no se ha aprovechado por completo el uso de múltiples hilos en la programación de videojuegos, ya que la baja predictibilidad de los algoritmos que existen en los motores de videojuegos lo dificultan; hemos visto algunas iniciativas modestas pero todavía falta mucho por desarrollar en este ámbito. Pero, la inquietud está por parte de los desarrolladores, y ya se esta pensando en soluciones de programación que aumenten drásticamente el rendimiento general de un videojuego (no necesariamente en alcanzar topes de FPS mas altos, sino que también en evitar las fluctuaciones al situarse en escenas de alta complejidad y exigencia, como por ejemplo al realizar muchos cálculos físicos, etc.) aprovechando la presencia de dos o mas núcleos de CPU.
¿Qué pasa entonces con multinucleo para GPU? La gracia de meter más de un nú
cleo en el mismo procesador va desde el ahorro de espacio, de dinero, de calor, de todo. Si la tendencia de los desarrolladores va hacia el uso de múltiples hilos, no sería nada de raro que en un futuro próximo tengamos VGAs (y aplicaciones que las aprovechen, por supuesto) con procesadores de dos o quizás más núcleos. Por lo menos Steve Sung ante la pregunta respondió que ese tema obedecía precisamente a la misma preocupación que está teniendo NVIDIA en este momento para desarrollar su nueva arquitectura así que tan perdidos no estamos.