La razón (y *cuándo*) por la que aprender reglas del lenguaje natural puede ser tan efectivo en la práctica gira en torno a la obtención de intenciones y preferencias. La especificación principal suele ser más fácil de describir en inglés. Pero la larga cola de casos límite y patrones de fallos generalmente se expresan mejor (y aparecen de forma más natural) mediante ejemplos o comentarios, de forma distribuida. Pero entonces, ¿cómo convertimos eso en una política? Para habilidades mecánicas o motrices básicas, las actualizaciones graduales son difíciles de superar. Para la dirección de alto nivel o los requisitos emergentes/latentes, el aprendizaje rápido es difícil de superar. Por eso, en el software de IA, necesitas los tres: firmas en lenguaje natural, evaluaciones/retroalimentación basadas en datos y composición simbólica para *especificar* completamente tu sistema. Y entonces necesitas las tres: optimización rápida, actualizaciones de gradiente y escalado del tiempo de inferencia para *ajustar* tu sistema al máximo.
Este tipo de matices se pierden por completo si se piensa que el aprendizaje en el software de IA consiste en ajustar un conjunto de datos. Las evaluaciones por sí solas (o el programa por sí solo) no especificarían adecuadamente el problema.