O fato de isso ainda acontecer é exatamente o motivo pelo qual acho que o modelo de "agente" dos LLMs está errado. Um agente não faria isso. Um agente perseguiria sua tarefa incansavelmente até concluí-la corretamente. Sabe o que faria isso? Um sofisticado sistema de autocompletar.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.