Não pense nos LLMs como entidades, mas sim como simuladores. Por exemplo, ao explorar um tópico, não pergunte: O que você acha de xyz? Não existe "você". Da próxima vez, tente: "Qual seria um bom grupo de pessoas para explorar xyz? O que elas diriam?" O LLM pode canalizar/simular muitas perspectivas, mas não "pensou" sobre xyz há algum tempo e, com o tempo, não formou suas próprias opiniões da maneira como estamos acostumados. Se você o forçar usando "você", ele lhe dará algo adotando um vetor de personalidade implícito pelas estatísticas de seus dados de ajuste fino e, em seguida, simulará isso. Não há problema em fazer isso, mas há muito menos mistério nisso do que as pessoas ingenuamente atribuem a "perguntar a uma IA".
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.