Se você já está começando a otimizar modelos de código aberto para tarefas menores, usar algo como o SDK @runanywhereai pode permitir que você transfira parte da inferência para os dispositivos do usuário, reduzindo os custos e a latência da inferência na nuvem. Mas provavelmente existem aplicações mais divertidas/exclusivas em que não estou pensando.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.