AMD ha reforzado su liderazgo en inteligencia artificial con avances clave en el rendimiento de sus GPUs Instinct. En la reciente ronda de MLPerf Inference 5.0, la compañía logró varios hitos, incluyendo la primera presentación de resultados de la GPU Instinct MI325X y la participación de múltiples socios como Supermicro, ASUS y Gigabyte.
Resultados Claves en MLPerf
- Primera presentación de la Instinct MI325X en MLPerf Inference 5.0.
- Implementación multi-nodo con la Instinct MI300X, logrando el mejor rendimiento registrado en MLPerf para el modelo Llama 2 70B.
- Comparaciones con la NVIDIA H200 en modelos como Stable Diffusion XL, con resultados competitivos.
Avances en Modelos de IA de Vanguardia
AMD también ha optimizado sus GPUs para los modelos de IA más exigentes, incluyendo Llama 3.1 405B y DeepSeek-R1. Gracias a mejoras en ROCm y nuevas herramientas como AMD Quark, se ha logrado un rendimiento hasta 4 veces superior en inferencia con MI300X, rivalizando con la NVIDIA H200.
AMD reafirma su compromiso con la transparencia y el open-source, permitiendo a los usuarios reproducir estos resultados a través de ROCm y publicando los datos en MLCommons.
Innovaciones en Software y Ecosistema
- Introducción del AI Tensor Engine para ROCm, que mejora significativamente la ejecución de modelos de IA.
- Implementación de Open Performance and Efficiency Architecture (OPEA) para monitoreo avanzado de rendimiento.
- Mejoras en el despliegue de GPUs AMD en entornos Kubernetes con soporte para multi-instancia y automatización.
AMD reafirma su compromiso con la transparencia y el open-source, permitiendo a los usuarios reproducir estos resultados a través de ROCm y publicando los datos en MLCommons. Con estos avances, la compañía sigue posicionándose como una alternativa potente y escalable para la IA en la industria.