Ingénierie contextuelle 2.0 : redéfinir la « mémoire » et la cognition en intelligence artificielle Dans le domaine en pleine expansion de l'intelligence artificielle, la capacité à « comprendre » le contexte n'est pas une simple fonction, mais une pierre angulaire pour la conception de systèmes capables d'interagir véritablement avec les humains. Un cadre de recherche récent, publié par Google AI Research (GAIR), explore cette question et propose une approche systématique, baptisée « Ingénierie du contexte 2.0 », pour aider l'IA à maîtriser l'information contextuelle. L'ingénierie du contexte repose essentiellement sur le processus de réduction de l'entropie : transformer les signaux chaotiques et non structurés des intentions humaines (dialogues, choix, besoins) en données structurées et compréhensibles par la machine. Les chercheurs estiment qu'il s'agit d'un fondement crucial pour le développement de véritables capacités cognitives en intelligence artificielle. Analysons les principaux enseignements : 1. Vingt ans d'évolution : des situations fondamentales aux situations adaptatives Le domaine de l'ingénierie contextuelle a connu quatre phases de développement distinctes, reflétant l'évolution de l'intelligence artificielle, passée de systèmes rigides et basés sur des règles à une compréhension plus flexible et semblable à celle de l'humain : Phase 1 (début du XXIe siècle) : Focus sur le « contexte statique » – règles prédéfinies codées en dur (par exemple, « Si l’utilisateur dit X, répondre Y »). Phase 2 (années 2010) : Passage au « contexte dynamique » – intégration de données en temps réel (par exemple, l’emplacement, l’heure ou les interactions récentes) pour adapter les réponses. Phase 3 (2020-2022) : Introduction du « contexte multi-tours » – suivi des conversations longues et complexes (par exemple, le fil de la pensée d’un utilisateur sur plus de 10 messages). – Phase 4 (2023-présent) : Entrée dans la phase du « contexte adaptatif » – permettant à l’IA de déduire les besoins non exprimés de l’utilisateur, de prédire ses intentions et de maintenir la cohérence dans diverses tâches ouvertes (par exemple, un assistant personnel gérant simultanément la planification, la recherche et les conversations informelles). Cette évolution reflète le passage de l'intelligence artificielle d'un mode « passif » à un mode « actif », où l'information contextuelle n'est plus simplement stockée mais activement interprétée. 2. Cadre de réduction de l'entropie : pourquoi c'est important Théoriquement, l'ingénierie du contexte repose sur le concept de « réduction de l'entropie », issu de la thermodynamique, qui désigne l'émergence de l'ordre à partir du chaos. En intelligence artificielle, cela signifie extraire le « bruit » (ambiguïté, contradictions, informations incomplètes) du comportement humain pour en extraire des « signaux » exploitables (par exemple, les préférences de l'utilisateur, ses objectifs implicites). Ainsi, si un utilisateur déclare : « Je dois trouver un cadeau », l'IA doit réduire l'entropie par inférence : quel type de cadeau ? Pour qui ? Quel est le budget ? A-t-elle déjà fourni des suggestions ? Sans ces informations, l'IA risque de proposer des suggestions génériques, sans répondre à la problématique principale. Ce cadre offre une perspective unifiée pour évaluer les systèmes de contexte : dans quelle mesure filtrent-ils les données non pertinentes, hiérarchisent-ils les informations clés et maintiennent-ils la cohérence ? Par exemple, le contexte à « fenêtre glissante » de Claude 3 et la « génération par augmentation de la récupération » (RAG) de Gemini utilisent tous deux des techniques de réduction d’entropie, mais optimisent des compromis différents : vitesse et profondeur. 3. Participants actuels : Qui est le meilleur en ingénierie contextuelle ? Cette étude met en lumière des exemples d'application pratique de l'ingénierie du contexte : Claude excelle dans la « préservation du contexte long » : il peut gérer plus de 200 000 unités lexicales, ce qui le rend idéal pour traiter des documents complexes de plusieurs pages ou de longues conversations sans perte de cohérence. Gemini : Utilise la technologie « Retrieval Enhanced Generation » (RAG) pour intégrer des données externes (telles que les actualités en temps réel et l’historique de l’utilisateur) afin de construire des réponses, réduisant ainsi l’entropie en intégrant les informations contextuelles les plus récentes. Manus (l'assistant IA de Google) : Illustre le concept de « contexte incarné » — lier le contexte à des actions réelles, comme se souvenir des outils préférés d'un utilisateur gaucher ou de la disposition spécifique d'un plan de travail de cuisine. Ces systèmes n'en sont encore qu'à leurs débuts, mais ils démontrent comment l'ingénierie contextuelle peut aller au-delà du texte et se combiner avec des interactions visuelles, vocales et physiques. 4. Orientations de conception futures : quelles sont les prochaines étapes ? Pour faire progresser l’ingénierie contextuelle 2.0, les chercheurs ont défini trois priorités de conception clés : Abstraction contextuelle : Passer des données brutes au « contexte abstrait » – L’intelligence artificielle doit apprendre à alterner entre des détails précis (par exemple, « l’utilisateur a mentionné 15 h » contre « l’utilisateur a une réunion à 14 h ») et des modèles de niveau supérieur (par exemple, « l’utilisateur est très sensible au facteur temps »). Confidentialité contextuelle : à mesure que les contextes deviennent plus détaillés (par exemple, données de santé, antécédents personnels), assurez leur stockage et leur utilisation sécurisés sans compromettre la confiance des utilisateurs. Transférabilité du contexte : Concevoir des systèmes capables de « transporter » le contexte d'une tâche à l'autre (par exemple, un assistant de voyage peut se souvenir des voyages précédents et adapter les recommandations pour les nouvelles destinations) et d'un mode à l'autre (par exemple, passer d'une conversation textuelle à un appel vocal sans perdre le contexte). Pourquoi c'est crucial pour vous (et votre entreprise) Que vous développiez un chatbot, un assistant personnel ou un modèle de langage complexe, l'ingénierie du contexte détermine le degré de « nature humaine » de votre IA. Elle permet de distinguer un système qui « lit » du texte d'un système qui « comprend » l'intention. À mesure que l'IA évolue de la simple exécution de tâches vers la collaboration avec les utilisateurs, la maîtrise de la réduction de l'entropie contextuelle sera essentielle à la création d'outils au comportement humain.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.