A razão pela qual (e *quando*) o aprendizado das regras da linguagem natural pode ser tão eficaz na prática gira em torno da solicitação de intenções e preferências. A especificação principal costuma ser mais fácil de descrever em inglês. Mas a longa lista de casos extremos e padrões de falha geralmente é mais fácil de expressar (e surge mais naturalmente) por meio de exemplos ou feedback, distribuídos de forma clara. Mas como transformamos isso em uma política? Para habilidades mecânicas ou motoras básicas, atualizações graduais são imbatíveis. Para direção de alto nível ou requisitos emergentes/latentes, o aprendizado rápido é imbatível. É por isso que, em software de IA, você precisa dos três: assinaturas em linguagem natural, avaliações/feedback orientados por dados e composição simbólica para *especificar* completamente o seu sistema. E então você precisa dos três: otimização imediata, atualizações de gradiente e escalonamento em tempo de inferência para *ajustar* seu sistema ao máximo.
Esse tipo de nuance se perde completamente se você pensar que o aprendizado em software de IA se resume a ajustar um conjunto de dados. As avaliações por si só (ou o programa sozinho) subestimariam bastante o problema.