RT @geerlingguy: Acabei de testar o novo recurso de interface web integrada do llama.cpp e não poderia ser mais fácil. Basta iniciar o llama-server com um host…
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.