Eu tinha me esquecido completamente desse experimento em que descobri que era mais rápido e barato fazer a classificação usando embeddings do que usar o LLM mais rápido/barato (na época).
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.