El modelo de inteligencia artificial (IA) de razonamiento R1 actualizado de Deepseek podría ser el centro de atención de la comunidad de IA de nuevo. El laboratorio chino de IA lanzó una versión «destilada» más pequeña de su nuevo R1, Deepseek-R1-0528-QWen3-8b, que, según afirma Deepseek, supera a modelos de tamaño comparable en varios puntos de referencia.
El R1 actualizado más pequeño, que se construyó utilizando el modelo QWEN3-8B lanzado por Alibaba en mayo como base, funciona mejor que el Gemini 2.5 Flash de Google en AIME 2025, una colección de preguntas matemáticas desafiantes.
Deepseek-R1-0528-Qwen3-8b también coincide con el modelo de razonamiento Phi 4 Plus de Microsoft, que fue lanzado recientemente en otra prueba de habilidades matemáticas, la HMMT
El HMMT, o Torneo de Matemáticas Harvard-MIT (Harvard-MIT Mathematics Tournament), es una competición semestral (dos veces al año) de matemáticas para institutos fundada en 1998. Es una de las mayores y más prestigiosas competiciones de matemáticas de secundaria a nivel mundial, y atrae a estudiantes de todo el mundo. El torneo está organizado por estudiantes de Harvard, el MIT y escuelas cercanas.
Los modelos destilados, como Deepseek-R1-0528-QWen3-8b, suelen ser menos capaces que sus contrapartes de tamaño completo. En el lado positivo, son mucho menos exigentes desde el punto de vista computacional. Según la plataforma en la nube Nodeshift, QWEN3-8B requiere una GPU con 40 GB-80 GB de RAM para ejecutarse (por ejemplo, un NVIDIA H100). Las nuevas necesidades de R1 de tamaño completo se acercan a las de una docena de GPU de 80 GB.
Deepseek entrenó a Deepseek-R1-0528-Qwen3-8b tomando el texto generado por el R1 actualizado y usándolo para ajustar QWEN3-8B. En una página web dedicada al modelo en la plataforma AI Dev Hugging Face, Deepseek describe Deepseek-R1-0528-Qwen3-8b como «tanto para la investigación académica sobre modelos de razonamiento como para el desarrollo industrial centrado en modelos a pequeña escala».
Deepseek-R1-0528-Qwen3-8b está disponible bajo una licencia MIT permisiva, por lo que puede usarse comercialmente sin restricciones. Varios anfitriones, incluidos LM Studio, ofrecen el modelo a través de una API.