Por que os modelos não são tão confiáveis a ponto de todos os estímulos "equivalentes" funcionarem igualmente bem? Porque o método do gradiente descendente produz generalizações "irregulares". Mas o principal mecanismo pelo qual os otimizadores de prompts ajudam é revelando *novas* informações sobre o ambiente/tarefa que nem sequer foram mencionadas explicitamente na especificação original. Isso pode ocorrer porque essas informações são sutis, de baixo nível ou, na verdade, dependentes do modelo*. @ChrisGPotts chama isso de 'requisitos latentes'. *Lembre-se de que a linguagem natural é inerentemente ambígua, mas a resolução dessa ambiguidade varia de falante para falante.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.