MiroThinker v1.0 a également obtenu des résultats impressionnants sur d'autres ensembles de tests : ① Test humain final HLE : précision de 37,7 %, surpassant la précision de 35,2 % de GPT-5-high avec Python + outils de recherche. ② BrowseComp-ZH : Surpasse DeepSeek-v3.2 de 7,7 points de pourcentage. Il est globalement au même niveau que les meilleurs modèles comme GPT, Grok et Claude, ce qui le place dans la première catégorie. Le concept de « mise à l'échelle des interactions profondes » proposé par l'équipe est très intéressant. La loi d'échelle traditionnelle, qui stipule que plus de données + des paramètres plus importants = un modèle plus robuste, approche désormais de ses limites. Loi d'échelle d'interaction profonde : élargit la profondeur et l'étendue de l'interaction de l'agent avec l'environnement, améliorant durablement ses capacités de raisonnement et de prise de décision. En clair, cela permet à Aget de procéder par essais et erreurs et de s'adapter en permanence à son environnement. Plus il y a d'itérations, plus le modèle devient performant. Cette stratégie permet de surmonter les limitations des LLM traditionnels en ce qui concerne la « longueur du contexte » et le « nombre effectif de tours d'interaction ». Le modèle de base MiroThinker réutilise une architecture entièrement open source, rendant disponibles tous les poids de modèle, les chaînes d'outils et les frameworks d'interaction. Ce projet open source est une bonne nouvelle pour les développeurs et les chercheurs du monde entier. Vous pouvez essayer la démo en ligne :
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
