L'entraînement d'un modèle d'apprentissage automatique n'est souvent que la première étape. Le plus difficile est d'expliquer à sa hiérarchie ou aux parties prenantes pourquoi le modèle a abouti à ce résultat de prédiction. Face à un modèle opaque, on reste souvent sans voix. J'ai récemment découvert sur GitHub une bibliothèque Python appelée Shapash, qui vise à permettre aux modèles d'apprentissage automatique de « parler le langage humain » et de traduire une logique algorithmique complexe en un langage visuel. Il peut générer directement un tableau de bord web interactif qui non seulement affiche clairement l'importance des caractéristiques dans le modèle, mais permet également une exploration approfondie des perspectives globales et locales. Plus important encore, tous les graphiques sont accompagnés d'étiquettes métier claires, ce qui les rend facilement compréhensibles par un public non technique. GitHub : https://t.co/WiC2uPKqEK Il offre une excellente compatibilité et prend en charge les principaux frameworks de modélisation tels que Catboost, Xgboost, LightGBM et Sklearn. Outre la visualisation, il peut générer des rapports d'audit HTML indépendants en un seul clic, et fournit même un outil de prédiction léger pour le déploiement en environnement de production, qui peut être rapidement installé et utilisé via pip. Si vous devez fréquemment communiquer les résultats du modèle à des équipes non techniques, ou si vous devez effectuer des audits de conformité du modèle, ce projet peut nous faire gagner beaucoup de temps en explications.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
