Se você estiver usando o Colab e achar que o treinamento do seu modelo na GPU está lento, mude para o runtime TPU e ajuste o parâmetro "steps_per_execution" em model.compile() (quanto maior, mais trabalho será feito no dispositivo antes de voltar para a RAM do host). É possível observar, frequentemente, um aumento de velocidade de 4 a 5 vezes.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.