La dernière version de Kimi-K2-Thinking utilise la précision INT4. Quels sont donc les formats de précision pour github.com/karminski/one-…aminons-les, du FP128 (généralement non utilisé pour l’entraînement de grands modèles) au 1 bit, et voyons quelles sont les structures de ces précisions. Les compilations précédentes sont disponibles ici : https://t.co/gJjfpfOHm6
FP128 - TF32
FP16 - FP8
MXFP8 - MXFP4
NVFP4 - Bin 1 bit
ternaire 1 bit

















