Datos de Jin10, 10 de julio: esta madrugada, Microsoft lanzó en su sitio web la última versión de la familia Phi-4, Phi-4-mini-flash-reasoning. La versión mini-flash mantiene las características de bajo parámetro y alto rendimiento de la familia Phi-4, y está diseñada específicamente para escenarios limitados por potencia computacional, memoria y latencia, pudiendo ser ejecutada en una sola GPU, adecuada para dispositivos de borde como laptops y tabletas. En comparación con la versión anterior, mini-flash utiliza la innovadora arquitectura SambaY desarrollada por Microsoft, logrando una eficiencia de inferencia que sube 10 veces, con una latencia promedio que se reduce de 2 a 3 veces, logrando una mejora significativa en el rendimiento general de inferencia.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Microsoft Código abierto la nueva versión Phi-4: la eficiencia de inferencia Gran aumento de 10 veces, se puede ejecutar en portátiles
Datos de Jin10, 10 de julio: esta madrugada, Microsoft lanzó en su sitio web la última versión de la familia Phi-4, Phi-4-mini-flash-reasoning. La versión mini-flash mantiene las características de bajo parámetro y alto rendimiento de la familia Phi-4, y está diseñada específicamente para escenarios limitados por potencia computacional, memoria y latencia, pudiendo ser ejecutada en una sola GPU, adecuada para dispositivos de borde como laptops y tabletas. En comparación con la versión anterior, mini-flash utiliza la innovadora arquitectura SambaY desarrollada por Microsoft, logrando una eficiencia de inferencia que sube 10 veces, con una latencia promedio que se reduce de 2 a 3 veces, logrando una mejora significativa en el rendimiento general de inferencia.