À quoi ressemblerait le regroupement de 100 millions d'articles ? InferenceNet, en collaboration avec LAION et Wynd Labs, a lancé le projet OSSAS. Ce projet a utilisé un modèle open source pour traiter 100 millions d'articles scientifiques et créer un outil de visualisation qui regroupe les articles similaires, rendant ainsi les connaissances scientifiques accessibles, consultables et comparables à l'échelle mondiale. Le coût s'est élevé à seulement 100 000 $. Ils ont utilisé leur propre modèle personnalisé : 1. Aella-Qwen3-14B : Une version améliorée du Qwen3 14B d'Alibaba, avec de fortes capacités de raisonnement. 2. Aella-Nemotron-12B : Basé sur le Nemotron 12B de NVIDIA, utilisant une architecture hybride Mamba-Transformer, offrant un débit explosif. En définitive, cet outil de visualisation permet aux utilisateurs de cliquer sur n'importe quel article pour en consulter le résumé structuré et découvrir les relations et les tendances entre les articles, facilitant ainsi une recherche rapide. Il convient de présenter ici InferenceNet. Ce site web permet aux chercheurs d'accéder à des GPU inactifs dans le monde entier via le réseau, à l'instar d'une version moderne de SETI@Home, mais spécifiquement pour l'exécution de tâches LLM, leur permettant ainsi d'utiliser une puissance de calcul auparavant inabordable. Adresse du projet :
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.