llama.cpp ahora es compatible con MiniMax-M2, gracias a pwilkin, quien anteriormente era compatible con qwen3-vl. Sin embargo, dado que MiniMax-M2 utiliza un proceso de procesamiento intercalado (es decir, procesa la información durante un tiempo, genera un párrafo, luego procesa nuevamente y genera otro párrafo), llama.cpp actualmente no admite esta funcionalidad. Por lo tanto, los usuarios deben analizar manualmente esta salida posteriormente para obtener el párrafo deseado.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
