Já existe algo como um "LLM de hardware externo", semelhante aos discos rígidos externos que temos hoje? Em vez de ter que executar/manter um modelo local, quero uma máquina de inferência que eu possa simplesmente conectar e direcionar meus comandos. Uma única GPU, talvez algumas em paralelo. Quem está construindo isso?
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
