La última versión de Kimi-K2-Thinking utiliza precisión INT4. ¿Qué formatos de precisión existen para modelos gragithub.com/karminski/one-…sde FP128 (generalmente no utilizado para entrenar modelos grandes) hasta 1 bit, y veamos sus estructuras. Puedes encontrar recopilaciones anteriores aquí: https://t.co/gJjfpfOHm6
FP128 - TF32
FP16 - FP8
MXFP8 - MXFP4
NVFP4 - Bin de 1 bit
ternario de 1 bit

















