A plataforma de inferência sem servidor @togethercompute agora é 2 vezes mais rápida para os principais modelos de código aberto — graças a um conjunto de tecnologias que incluem paralelismo 5D, serviço desagregado, detogether.ai/blog/fastest-i…a, kernels fp4 fundidos e muito mais. https://t.co/jG1omhYQYk
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.