Datos de Jin10, 30 de junio: Tencent ha lanzado la última versión de su modelo Hunyuan, Hunyuan-A13B. Hunyuan-A13B es un modelo mixto experto que cuenta con 80 mil millones de parámetros, de los cuales 13 mil millones están activos. Soporta dos modos de pensamiento: rápido y lento. Cabe destacar que Hunyuan-A13B ha sido reforzado específicamente para agentes de IA, creando un "cerebro adaptativo" para responder a diferentes cambios de escenario, diseñando más de 30 instrucciones para agentes inteligentes y combinando variaciones en el formato de herramientas, acciones y respuestas, generando 20,000 combinaciones de formato. Según los datos de prueba publicados por Tencent, en las pruebas matemáticas AIME2024 y AIME2025, Hunyuan-A13B obtuvo puntuaciones altas de 87.3 y 76.8, respectivamente, superando los 79.8 y 70 de DeepSeek-R1, y también superando significativamente el modelo o1 de OpenAI.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Tencent Código abierto nueva versión del modelo Hunyuan
Datos de Jin10, 30 de junio: Tencent ha lanzado la última versión de su modelo Hunyuan, Hunyuan-A13B. Hunyuan-A13B es un modelo mixto experto que cuenta con 80 mil millones de parámetros, de los cuales 13 mil millones están activos. Soporta dos modos de pensamiento: rápido y lento. Cabe destacar que Hunyuan-A13B ha sido reforzado específicamente para agentes de IA, creando un "cerebro adaptativo" para responder a diferentes cambios de escenario, diseñando más de 30 instrucciones para agentes inteligentes y combinando variaciones en el formato de herramientas, acciones y respuestas, generando 20,000 combinaciones de formato. Según los datos de prueba publicados por Tencent, en las pruebas matemáticas AIME2024 y AIME2025, Hunyuan-A13B obtuvo puntuaciones altas de 87.3 y 76.8, respectivamente, superando los 79.8 y 70 de DeepSeek-R1, y también superando significativamente el modelo o1 de OpenAI.