Microsoft y OpenAI están investigando si DeepSeek, una startup china de inteligencia artificial, accedió de manera indebida a datos y modelos de OpenAI para desarrollar su propio asistente de IA.
Según informes, investigadores de seguridad de Microsoft detectaron en otoño de 2024 una actividad sospechosa que implicaba la extracción de grandes cantidades de datos a través de cuentas de desarrollador de OpenAI, las cuales se cree que están vinculadas a DeepSeek.
OpenAI sospecha que DeepSeek utilizó una técnica conocida como «destilación», que consiste en entrenar modelos más pequeños utilizando datos generados por modelos más grandes y avanzados.
OpenAI sospecha que DeepSeek utilizó una técnica conocida como «destilación», que consiste en entrenar modelos más pequeños utilizando datos generados por modelos más grandes y avanzados. Esta práctica, aunque común en el desarrollo de IA, viola los términos de servicio de OpenAI cuando se emplea para crear modelos competidores.
David Sacks, asesor de inteligencia artificial de la Casa Blanca, señaló que existen pruebas sustanciales de que DeepSeek pudo haber extraído conocimiento de los modelos de OpenAI, lo que podría constituir una violación de la propiedad intelectual. OpenAI ha expresado la necesidad de colaborar estrechamente con el gobierno de EE. UU. para proteger sus modelos más avanzados de intentos por parte de competidores y adversarios de aprovechar la tecnología estadounidense.
Hasta el momento, ni Microsoft ni DeepSeek han emitido comentarios oficiales al respecto. La situación subraya la creciente rivalidad en el desarrollo de inteligencia artificial entre Estados Unidos y China, y destaca la importancia de salvaguardar la propiedad intelectual en este campo en rápida evolución.
[Reuters]