我遇到的最有趣的一次互動是這樣的:模型(我猜我用的是早期版本,系統提示也過時了)不相信現在是2025年,還不停地編造理由,說我一定是在耍它,或者跟它開什麼玩笑。我不斷地給它看「未來」的圖片和文章,但它堅持說全是假的。它指責我用生成式人工智慧來逃避挑戰,還煞有介事地解釋為什麼真正的維基百科條目是生成的,以及那些「明顯的破綻」是什麼。當我給它看谷歌圖片搜尋結果時,它也特意強調了一些細節,說縮圖是人工智慧生成的。後來我才意識到,我忘了開啟「Google搜尋」工具。打開之後,模型搜尋了一番互聯網,然後恍然大悟:我之前說的肯定是對的 :D。正是在這些意料之外的時刻,當你明顯偏離了正軌,陷入了泛化叢林時,你才能最深刻地體會到模型的「味道」。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
