Si ya estás empezando a ajustar modelos de código abierto para tareas más pequeñas, usar algo como el SDK de @runanywhereai te puede permitir delegar parte de la inferencia a los dispositivos de los usuarios, reduciendo los costes y la latencia de la inferencia en la nube. pero probablemente haya aplicaciones más divertidas/únicas en las que no estoy pensando.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.