Como seria agrupar 100 milhões de artigos? A InferenceNet, em colaboração com a LAION e a Wynd Labs, lançou o Projeto OSSAS. Utilizando um modelo de código aberto, eles processaram 100 milhões de artigos científicos, criando uma ferramenta de visualização que agrupa artigos relacionados, tornando o conhecimento científico mundial acessível, pesquisável e comparável. O custo foi de apenas US$ 100.000. Eles usaram seu próprio modelo personalizado: 1. Aella-Qwen3-14B: Uma versão aprimorada do Qwen3 14B da Alibaba, com fortes capacidades de raciocínio. 2. Aella-Nemotron-12B: Baseado no Nemotron 12B da NVIDIA, utilizando uma arquitetura híbrida Mamba-Transformer, proporcionando um desempenho explosivo. Em última análise, esta ferramenta de visualização permite que os usuários cliquem em qualquer artigo para visualizar seu resumo estruturado e descobrir relações e padrões entre os artigos, facilitando a recuperação rápida ao pesquisar artigos. É necessário apresentar aqui o InferenceNet. Este site permite que pesquisadores acessem GPUs ociosas em todo o mundo através da rede, de forma semelhante a uma versão moderna do SETI@Home, mas especificamente para executar tarefas LLM, possibilitando o uso de poder computacional que antes era inacessível. Endereço do projeto:
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.