Analisamos 60 trechos de podcasts de alta qualidade do YouTube, realizamos uma pesquisa utilizando 5 modelos comuns e descobrimos alguns pontos interessantes. Nível 1 (GLM, Sonnet, k2): Como um secretário masculino direto, são altamente eficientes, mas um tanto "honestos", muitas vezes exigindo instruções mais longas para "otimizar" e atingir seu melhor desempenho. Se você tiver amplo conhecimento em uma área específica, os resultados são excelentes; o GLM é mais rápido, mas algumas descrições são vagas e podem ser esclarecidas com correções adicionais. O Sonnet oferece anotações muito detalhadas. Nível T0 (Opus, Gemini): "Consultores" perspicazes. Eles se destacam na compreensão de significados implícitos e na extração de estruturas a partir de dados dispersos, o que os torna particularmente adequados para reconhecimento e reconstrução de padrões. Suas instruções são relativamente concisas e altamente adaptáveis. PS: Sinto que a ilusão em torno do Cleanser 3 é bastante forte; isso precisa ser enfatizado. Não me bajule, diga-me sua opinião sincera. Às vezes, por razões econômicas, T0 e T1 são combinados. 1. Escreva o esqueleto do prompt usando T0. 2. Alimentação T1 durante a operação de teste 3. Realizar amostragem manual para verificar se difere das minhas expectativas. 4. Otimize realimentando os resultados para T0. 5. Transferência para T1 para produção em massa. Você pode tentar este método.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
