El 25 de febrero, los datos de Jinshi, el equipo de Ali Qwen, anunció esta mañana en las redes sociales el lanzamiento de un nuevo modelo de inferencia, Profundidad Pensante (QwQ). Este es un modelo de inferencia basado en Qwen2.5-Max, con el soporte de QWQ-MAX-PREVIEW. Blue Whale News descubrió que, al igual que los modelos de inferencia DeepSeek R1 y kimi, QwQ puede admitir tanto la Profundidad Pensante como la búsqueda en línea, y mostrará una cadena completa de pensamiento. El equipo de Qwen dijo que la versión oficial de QWQ-MAX se lanzará pronto, junto con la aplicación para Android e iOS, y también se lanzarán modelos más pequeños que se pueden implementar en dispositivos locales, como QWQ-32B.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El equipo de Ali Qwen lanzó el nuevo modelo de promoción QwQ, que mostrará la cadena completa de pensamiento
El 25 de febrero, los datos de Jinshi, el equipo de Ali Qwen, anunció esta mañana en las redes sociales el lanzamiento de un nuevo modelo de inferencia, Profundidad Pensante (QwQ). Este es un modelo de inferencia basado en Qwen2.5-Max, con el soporte de QWQ-MAX-PREVIEW. Blue Whale News descubrió que, al igual que los modelos de inferencia DeepSeek R1 y kimi, QwQ puede admitir tanto la Profundidad Pensante como la búsqueda en línea, y mostrará una cadena completa de pensamiento. El equipo de Qwen dijo que la versión oficial de QWQ-MAX se lanzará pronto, junto con la aplicación para Android e iOS, y también se lanzarán modelos más pequeños que se pueden implementar en dispositivos locales, como QWQ-32B.