Ingénierie du contexte 2.0 : Le contexte de l’ingénierie du contexte Cet article met en lumière un point important : l’ingénierie conarxiv.org/pdf/2510.26493concept nouveau apparu ces dernières années, mais un domaine en développement depuis plus de 20 ans. L’article divise son évolution en quatre étapes et s’attache à analyser les caractéristiques des ères 1.0 et 2.0. Lien vers l'article : https://t.co/Mj5DyFf5fy L'essence de l'ingénierie contextuelle réside dans un processus de « réduction de l'entropie ». Lors de la communication, les humains s'appuient sur des connaissances partagées, des indices émotionnels et une bonne compréhension de la situation pour « combler les lacunes ». Or, les machines ne possèdent pas cette capacité ; il est donc nécessaire de « prétraiter » le contexte pour elles, en compressant les informations brutes à forte entropie en une représentation à faible entropie compréhensible par les machines. L'article définit formellement le contexte comme « toute information pouvant être utilisée pour décrire l'état des entités liées aux interactions entre l'utilisateur et l'application », tandis que l'ingénierie du contexte est « la conception et l'optimisation systématiques du processus de collecte, de stockage, de gestion et d'utilisation du contexte ». Quatre étapes de développement Ère 1.0 (années 1990-2020) : L’ère de l’informatique primitive • Faible niveau d’intelligence artificielle, capable uniquement de traiter des entrées structurées • Les humains doivent « traduire » les intentions en formats lisibles par machine • Systèmes représentatifs : Context Toolkit, applications de géolocalisation • Le contexte provient principalement de capteurs (GPS, horloge, etc.) Ère 2.0 (2020-Aujourd'hui) : L'ère des agents intelligents • L'émergence de grands modèles de langage a marqué un tournant • Les machines ont commencé à comprendre le langage naturel et à traiter des informations ambiguës et incomplètes • Systèmes représentatifs : ChatGPT, LangChain, AutoGPT • Le contexte inclut l'historique des conversations, les documents de recherche, les API des outils, etc. L'ère 3.0 (futur) : Intelligence de niveau humain – Les systèmes posséderont des capacités de raisonnement et de compréhension semblables à celles des humains, seront capables de percevoir des contextes complexes tels que les signaux sociaux et les états émotionnels, et de parvenir à une collaboration homme-machine véritablement naturelle. L'ère 4.0 (Hypothèse) : Intelligence surhumaine – Les machines surpasseront les capacités humaines et posséderont une « vision divine ». • Ne plus se contenter de s'adapter passivement aux contextes définis par l'humain, mais construire activement de nouveaux contextes. • Découvrir les besoins latents qui ne sont pas explicitement exprimés par les humains. Considérations de conception - Trois dimensions fondamentales de l'ingénierie contextuelle 1. Collecte et stockage du contexte : • Principe de moindre suffisance : ne collecter et stocker que les informations nécessaires. • Principe de continuité sémantique : préserver la continuité du sens, et non seulement des données. • Les stratégies de stockage ont évolué, passant des systèmes de fichiers locaux à une architecture hiérarchisée (cache à court terme + base de données à long terme + stockage cloud). 2. Gestion du contexte : Plusieurs méthodes courantes permettent de gérer le contexte du texte : • Horodatage : Simple, mais sans structure sémantique. • Étiquettes fonctionnelles : Organisation de l’information par rôle (ex. : « objectif », « décision », « action »). • Compression des paires question-réponse : Adaptée à la recherche, mais nuit à la fluidité de la pensée. • Notes hiérarchiques : Structure arborescente, mais difficulté à exprimer les relations causales. Dans les contextes multimodaux : • Associer les différentes modalités à un espace vectoriel partagé. • Utiliser un mécanisme d'auto-attention pour le traitement conjoint. • Utiliser l'attention croisée pour permettre à une modalité de se concentrer sur une autre. 3. Utilisation contextuelle : • Partage intra-système : via l’intégration de repères, des messages structurés ou une mémoire partagée. • Partage inter-système : à l’aide d’adaptateurs pour transformer ou partager des représentations (JSON, résumés en langage naturel, vecteurs sémantiques). • Sélection du contexte : basée sur des facteurs tels que la pertinence sémantique, la dépendance logique, l'actualité et la fréquence. Exemples d'applications pratiques : Gemini CLI : Gère le contexte du projet via le fichier GEMINI.md, prenant en charge l'héritage hiérarchique. Tongyi DeepResearch : Traite des tâches de recherche ouvertes, en compressant périodiquement les longs historiques d'interactions. Interface cerveau-ordinateur : Capture directement les signaux neuronaux, recueillant les états cognitifs internes tels que l'attention et les états émotionnels. Principaux défis : • Goulot d’étranglement du stockage des contextes persistants : Comment conserver un maximum d’informations pertinentes malgré les contraintes de ressources ? • Dégradation du traitement des contextes longs : La complexité O(n²) des Transformers engendre des problèmes d’efficacité et de qualité. • Stabilité du système : De petites erreurs peuvent avoir des répercussions importantes à mesure que la mémoire s’accumule. • Difficultés d’évaluation : Absence de mécanismes pour vérifier les contradictions et retracer les chaînes de raisonnement.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
