Los modelos rápidos optimizan el tiempo hasta la primera tokenización. Los agentes rápidos optimizan el tiempo para indicar al agente que se equivoca. Dos errores rápidos a menudo producen un acierto rápido.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.