Je suis d'accord, l'apprentissage continu est une priorité absolue, mais les gens semblent n'avoir que des questions et aucune réponse concrète. Autres points de vue notables sur Neurips (voir également mes commentaires sur RLaaS en tant que sous-agent plus tôt cette semaine) - Les chercheurs* s'en fichent étonnamment : - Deepseek OCR - Muon/MuonClip - mécaniste - modèles mondiaux - après la formation (!?) - laboratoires chinois - les gens sont positifs sur - Nouvelle architecture : transformateurs imbriqués, modèles hybrides (attention linéaire/SSM/sparsité mélangés à une attention complète) - nano banane - GPT-OSS - robotique - xAI, Anthropique - Déposition d'Ilya > Podcast d'Ilya - Environnements d'apprentissage par renforcement et IA pour la science : surmédiatisés ? / Difficile de distinguer les progrès réels de l'engouement suscité par les financements. *En dehors des spécialistes reconnus dans ces domaines. Pour être tout à fait clair, je ne dis PAS qu'ils sont surmédiatisés, c'est juste l'impression générale. Je suis globalement plus optimiste que l'opinion générale sur la plupart de ces sujets, et je commence à avoir un point de vue différent et éclairé par rapport aux chercheurs spécialisés, ce qui est vraiment satisfaisant.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.