La raison pour laquelle (et *quand*) l'apprentissage des règles du langage naturel peut être si efficace en pratique repose en fait sur la sollicitation des intentions et des préférences. La spécification de base est souvent plus facile à décrire en anglais. Mais la longue liste des cas limites et des schémas de défaillance est généralement plus facile à exprimer (et apparaît plus naturellement) par le biais d'exemples ou de retours d'expérience, de manière distribuée. Mais comment traduire cela en politique ? Pour les compétences mécaniques ou motrices de base, les mises à jour progressives sont difficiles à surpasser. Pour le pilotage de haut niveau ou les exigences émergentes/latentes, l’apprentissage rapide est difficile à surpasser. C’est pourquoi, dans les logiciels d’IA, vous avez besoin des trois : signatures en langage naturel, évaluations/retours d’information basés sur les données et composition symbolique pour *spécifier* pleinement votre système. Et ensuite, vous avez besoin des trois : optimisation rapide, mises à jour du gradient et mise à l'échelle du temps d'inférence pour *optimiser* votre système au maximum.
Ce type de nuance est totalement perdu si l'on considère que l'apprentissage dans les logiciels d'IA se résume à l'ajustement à un ensemble de données. Les évaluations seules (ou le programme seul) ne permettraient pas de bien cerner le problème.