DeepSeek, una destacada empresa china en el ámbito de la inteligencia artificial (IA), ha lanzado recientemente DeepSeek R1, un modelo de lenguaje de gran envergadura diseñado para abordar tareas complejas mediante técnicas avanzadas de razonamiento. Este modelo emplea un enfoque de «cadena de pensamiento» (Chain-of-Thought, CoT), que introduce una etapa de reflexión antes de generar la respuesta final, permitiendo un análisis más profundo y detallado de los problemas planteados.
Una de las innovaciones más significativas de DeepSeek R1 es su proceso de destilación, que ha permitido crear versiones más compactas del modelo original sin sacrificar su capacidad de razonamiento. Estas versiones destiladas son altamente eficientes y pueden implementarse en una variedad de hardware, incluyendo procesadores AMD Ryzen AI y tarjetas gráficas Radeon. Esta compatibilidad facilita a los desarrolladores y usuarios el despliegue de modelos de IA avanzados en sus sistemas, aprovechando el rendimiento y la eficiencia energética de las soluciones de AMD.
Para simplificar la implementación de estos modelos, DeepSeek ha colaborado con LM Studio, una plataforma que permite a los usuarios descargar y ejecutar modelos de lenguaje de manera eficiente. Con la versión 0.3.8 o superior de LM Studio, los usuarios pueden seleccionar entre diversas versiones destiladas de DeepSeek R1, adaptándose a las capacidades específicas de su hardware. Por ejemplo, en procesadores AMD Ryzen™ AI Max+ 395 con 64 GB o 128 GB de memoria, se recomienda utilizar la versión DeepSeek-R1-Distill-Qwen-32B, mientras que para tarjetas gráficas Radeon™ RX 7900 XTX, esta misma versión es la más adecuada.
DeepSeek performing very well on @AMDRadeon 7900 XTX. Learn how to run on Radeon GPUs and Ryzen AI APUs here: https://t.co/FVLDLJ18Ov pic.twitter.com/5OKEkyJjh3
— David McAfee (@McAfeeDavid_AMD) January 29, 2025
El enfoque de razonamiento de DeepSeek R1 implica que el modelo realiza un análisis exhaustivo antes de proporcionar una respuesta
El enfoque de razonamiento de DeepSeek R1 implica que el modelo realiza un análisis exhaustivo antes de proporcionar una respuesta, lo que se traduce en tiempos de respuesta más largos en comparación con los modelos de lenguaje tradicionales. Sin embargo, esta «fase de pensamiento» permite al modelo abordar problemas complejos en áreas como matemáticas y ciencias, ofreciendo soluciones más precisas y bien fundamentadas. Los usuarios tienen la opción de visualizar esta cadena de pensamiento, lo que proporciona transparencia en el proceso de toma de decisiones del modelo.
La colaboración entre DeepSeek y AMD subraya el compromiso de ambas empresas en hacer que la inteligencia artificial avanzada sea más accesible y eficiente. Al optimizar modelos de IA para hardware específico y proporcionar herramientas que simplifican su implementación, están allanando el camino para una adopción más amplia de soluciones de IA en diversas industrias. Esta sinergia no solo mejora el rendimiento de las aplicaciones de IA, sino que también reduce los costos y recursos necesarios para su desarrollo y despliegue.
Para ejecutar los modelos DeepSeek R1 Distill en procesadores AMD Ryzen AI y tarjetas gráficas Radeon, puedes seguir estos pasos utilizando LM Studio:
- Actualizar el controlador: Asegúrate de tener instalada la versión 25.1.1 o superior del controlador Adrenalin. Puedes descargarla directamente desde el siguiente enlace: Controlador Adrenalin 25.1.1.
- Descargar LM Studio: Obtén la versión 0.3.8 o superior de LM Studio desde lmstudio.ai/ryzenai.
- Instalar LM Studio: Procede con la instalación y omite la pantalla de introducción.
- Seleccionar el modelo: En la pestaña «Descubrir» de LM Studio, elige la versión de DeepSeek R1 Distill que se adapte a las capacidades de tu hardware.
A continuación, se detallan las recomendaciones según el hardware disponible:
Processor | DeepSeek R1 Distill* (Max Supported) |
AMD Ryzen™ AI Max+ 395 32GB1, 64 GB2 and 128 GB | DeepSeek-R1-Distill-Llama-70B (64GB and 128GB only) DeepSeek-R1-Distill-Qwen-32B |
AMD Ryzen™ AI HX 370 and 365 24GB and 32 GB | DeepSeek-R1-Distill-Qwen-14B |
AMD Ryzen™ 8040 and Ryzen™ 7040 32 GB | DeepSeek-R1-Distill-Llama-14B |
*= AMD recommends running all distills in Q4 K M quantization.
1= Requires Variable Graphics Memory set to Custom: 24GB.
2= Requires Variable Graphics Memory set to High.
Graphics Card | DeepSeek R1 Distill* (Max Supported1) |
AMD Radeon™ RX 7900 XTX | DeepSeek-R1-Distill-Qwen-32B |
AMD Radeon™ RX 7900 XT | DeepSeek-R1-Distill-Qwen-14B |
AMD Radeon™ RX 7900 GRE | DeepSeek-R1-Distill-Qwen-14B |
AMD Radeon™ RX 7800 XT | DeepSeek-R1-Distill-Qwen-14B |
AMD Radeon™ RX 7700 XT | DeepSeek-R1-Distill-Qwen-14B |
AMD Radeon™ RX 7600 XT | DeepSeek-R1-Distill-Qwen-14B |
AMD Radeon™ RX 7600 | DeepSeek-R1-Distill-Llama-8B |
*= AMD recommends running all distills in Q4 K M quantization.
1= Lists the maximum supported distill without partial GPU offload.
Es importante tener en cuenta que los modelos de razonamiento, como DeepSeek R1, añaden una etapa de «pensamiento» antes de generar la respuesta final. Esto implica que el modelo puede procesar miles de tokens para analizar el problema antes de proporcionar una respuesta, lo que resulta en tiempos de respuesta más largos en comparación con los modelos de lenguaje tradicionales. Sin embargo, esta fase de reflexión permite al modelo abordar problemas complejos de manera más efectiva.