llama.cpp prend désormais en charge MiniMax-M2, grâce à pwilkin, qui prenait auparavant en charge qwen3-vl. Cependant, comme MiniMax-M2 utilise une approche par entrelacement (il réfléchit pendant un certain temps, génère un paragraphe, puis réfléchit à nouveau et génère un autre paragraphe), llama.cpp ne prend pas en charge cette fonctionnalité actuellement. Par conséquent, les utilisateurs doivent analyser manuellement cette sortie pour obtenir le paragraphe souhaité.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
