不要把法学硕士(LLM)看作是实体,而应该看作是模拟器。例如,在探索某个主题时,不要问: 你对xyz有什么看法? 世上没有“你”。下次试试: “什么样的人适合去探索xyz?他们会怎么说?” LLM可以引导/模拟多种视角,但它已经很久没有“思考”过某个问题了,也没有像我们通常理解的那样,随着时间的推移形成自己的观点。如果你用“你”这个角色来强迫它,它会根据微调数据的统计结果,采用一个隐含的性格嵌入向量,然后进行模拟,从而给出结果。这样做当然没问题,但与人们天真地认为的“询问AI”相比,它远没有那么神秘。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。