Según se informa, el modelo de inteligencia artificial de DeepSeek ejecuta cargas de trabajo de inferencia en los chips Ascend 910C más nuevos de Huawei, lo que muestra cómo ha evolucionado la industria de inteligencia artificial de China en los últimos meses.
La firma china de inteligencia artificial DeepSeek seguramente ha logrado alterar los mercados globales de inteligencia artificial en los últimos días, ya que su modelo R1 LLM recientemente anunciado logró quitarle 2 billones de dólares al mercado de valores de EE. UU., ya que creó una sensación de pánico entre los inversores. Si bien las afirmaciones sobre la potencia de procesamiento que DeepSeek utilizó para entrenar su modelo R1 son bastante controvertidas, parece que Huawei ha jugado un papel importante en ello, ya que según @dorialexander, DeepSeek R1 está ejecutando inferencia en los chips Ascend 910C, lo que agrega un nuevo giro al asunto.
I feel this should be a much bigger story: DeepSeek has trained on Nvidia H800 but is running inference on the new home Chinese chips made by Huawei, the 910C. pic.twitter.com/6IAgQlQ3ou
— Alexander Doria (@Dorialexander) January 28, 2025
Para aquellos que no lo saben, se dice que el chip de inteligencia artificial Ascend 910C de Huawei es un rival directo de los aceleradores de inteligencia artificial Hopper H100 de NVIDIA, y aunque los detalles del chip de Huawei no son seguros por ahora, se afirmó que la compañía planeaba comenzar la producción en masa en el primer trimestre de 2025, viendo el interés de las principales empresas de inteligencia artificial chinas como ByteDance y Tencent. Se sabe que los chips de inteligencia artificial de Huawei son la alternativa de primer nivel al hardware de NVIDIA en China, y han logrado devorar una importante participación de mercado, por lo que parece que se volverán mucho más populares.
se afirma que DeepSeek tiene acceso a más de 50.000 H100 de NVIDIA
Los recursos informáticos utilizados en torno al modelo de IA R1 de DeepSeek no son específicos por ahora, y hay muchos conceptos erróneos en los medios de comunicación al respecto. En primer lugar, la cifra de «5 millones de dólares» no es el coste total de entrenamiento, sino más bien el gasto de ejecución del modelo final, y en segundo lugar, se afirma que DeepSeek tiene acceso a más de 50.000 H100 de NVIDIA , lo que implica que la empresa sí requirió recursos similares a los de otros modelos de IA homólogos.
El uso de chips de Huawei para realizar inferencias sigue siendo interesante, ya que no solo están disponibles en grandes cantidades para las empresas nacionales, sino que el precio es bastante decente en comparación con las variantes «reducidas» de NVIDIA o incluso los aceleradores disponibles a través de fuentes ilegales.
[ @dorialexander ]