Presque tous les grands modèles proposent une fonction « étude approfondie », qui est extrêmement utile. OpenAI a conçu un ensemble de données appelé BrowseComp spécifiquement pour tester les capacités de recherche approfondie, et il est incroyablement difficile. Si une personne réelle ne parvient pas à terminer la tâche en deux heures, le taux d'abandon atteint 70,8 %. Il y avait au total 1266 questions, et OpenAI Deep Research n'a atteint qu'un taux de précision de 51,5 %. MiroThinker v1.0, un modèle open-source basé sur des agents, a atteint un taux de précision de 47,1 % lors de ce test. Si vous souhaitez développer ou en apprendre davantage sur les produits d'agents de type « recherche approfondie ». Hautement recommandé ! C'est un logiciel libre disponible sur Huggingface et GitHub, et entièrement gratuit ! Modèle : Huggingface : https://t.co/f8LVh2Zkmz Le modèle et l'article sont disponibles sur GitHub : https://t.co/KTPC2PnxDO Agent:
MiroThinker v1.0 a également obtenu des résultats impressionnants sur d'autres ensembles de tests : ① Test humain final HLE : précision de 37,7 %, surpassant la précision de 35,2 % de GPT-5-high avec Python + outils de recherche. ② BrowseComp-ZH : Surpasse DeepSeek-v3.2 de 7,7 points de pourcentage. Il est globalement au même niveau que les meilleurs modèles comme GPT, Grok et Claude, ce qui le place dans la première catégorie. Le concept de « mise à l'échelle des interactions profondes » proposé par l'équipe est très intéressant. La loi d'échelle traditionnelle, qui stipule que plus de données + des paramètres plus importants = un modèle plus robuste, approche désormais de ses limites. Loi d'échelle d'interaction profonde : élargit la profondeur et l'étendue de l'interaction de l'agent avec l'environnement, améliorant durablement ses capacités de raisonnement et de prise de décision. En clair, cela permet à Aget de procéder par essais et erreurs et de s'adapter en permanence à son environnement. Plus il y a d'itérations, plus le modèle devient performant. Cette stratégie permet de surmonter les limitations des LLM traditionnels en ce qui concerne la « longueur du contexte » et le « nombre effectif de tours d'interaction ». Le modèle de base MiroThinker réutilise une architecture entièrement open source, rendant disponibles tous les poids de modèle, les chaînes d'outils et les frameworks d'interaction. Ce projet open source est une bonne nouvelle pour les développeurs et les chercheurs du monde entier. Vous pouvez essayer la démo en ligne :

