Datos de Jin10, 10 de julio: esta madrugada, Microsoft lanzó en su sitio web la última versión de la familia Phi-4, Phi-4-mini-flash-reasoning. La versión mini-flash mantiene las características de bajo parámetro y alto rendimiento de la familia Phi-4, y está diseñada específicamente para escenarios limitados por potencia computacional, memoria y latencia, pudiendo ser ejecutada en una sola GPU, adecuada para dispositivos de borde como laptops y tabletas. En comparación con la versión anterior, mini-flash utiliza la innovadora arquitectura SambaY desarrollada por Microsoft, logrando una eficiencia de inferencia que sube 10 veces, con una latencia promedio que se reduce de 2 a 3 veces, logrando una mejora significativa en el rendimiento general de inferencia.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Microsoft Código abierto la nueva versión Phi-4: la eficiencia de inferencia Gran aumento de 10 veces, se puede ejecutar en portátiles
Datos de Jin10, 10 de julio: esta madrugada, Microsoft lanzó en su sitio web la última versión de la familia Phi-4, Phi-4-mini-flash-reasoning. La versión mini-flash mantiene las características de bajo parámetro y alto rendimiento de la familia Phi-4, y está diseñada específicamente para escenarios limitados por potencia computacional, memoria y latencia, pudiendo ser ejecutada en una sola GPU, adecuada para dispositivos de borde como laptops y tabletas. En comparación con la versión anterior, mini-flash utiliza la innovadora arquitectura SambaY desarrollada por Microsoft, logrando una eficiencia de inferencia que sube 10 veces, con una latencia promedio que se reduce de 2 a 3 veces, logrando una mejora significativa en el rendimiento general de inferencia.