Testamos o Inference Engine 2.0 da @gmi_cloud. Multimodal, rápido e confiável em diversas cargas de trabalho. É evidente que este foi desenvolvido para desenvolvedores, não para demonstrações.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.