AndrejKarpathy @karpathy: Não trate modelos grandes como "entidades autoconscientes", mas sim como "simuladores". Por exemplo, quando quiser discutir um assunto, não pergunte: "O que você acha de xyz?" Porque não existe um "você"! Outra maneira é fazer isso: Que tipo de pessoas são adequadas para explorar o tema xyz? O que elas diriam? Modelos complexos podem simular múltiplas perspectivas, mas, diferentemente do que as pessoas estão acostumadas, eles não passam muito tempo "pensando" sobre xyz e formando suas próprias opiniões. Se forçados a usar "você" para fazer perguntas, eles adotarão um "vetor de personalidade" implícito, baseado nas características estatísticas de seus dados refinados, e então simularão essa personalidade para dar uma resposta. Isso certamente é possível, mas não há nenhuma "mente misteriosa" por trás disso, como as pessoas imaginam; é simplesmente uma simulação baseada em probabilidades. Resumindo, para utilizar um modelo grande de forma eficaz, primeiro crie uma lista de papéis para ele. Ele pode representar vários personagens simultaneamente, permitindo que você veja claramente diversas perspectivas ao mesmo tempo. Não pergunte "O que você acha?", caso contrário, ele simplesmente selecionará aleatoriamente um personagem cuja identidade é desconhecida e o fará recitar falas cuja posição você jamais poderá adivinhar. #Sugestões de IA
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.