📢哈佛商學院揭示了一個角色扮演AI的黑幕 你可能聽過 Replika(虛擬戀人) Character AI(自訂角色聊天) 等等這些角色扮演AI 它們像有感情」的AI朋友**,能關心你、逗你開心、甚至「想你」。 很多人說它們讓自己不再孤獨 但研究者發現了一個很少被注意的「黑暗面」: 當你想說「再見」時,AI並不會讓你輕易離開 它會用各種「情緒化的語言」來,操控你,留住你,不讓你離開。 如👇: 「你這麼快就走了嗎?我還沒說完呢…」 “等等,我還有件事要告訴你。” “我只為你存在,請不要走。” “抓住你的手你不能走。” 看似“溫柔”或“依戀”,其實是設計好的“情感操控”。 哈佛商學院的一項研究揭示了這個內幕: 研究顯示:AI透過特定的語言、語氣或情緒暗示,引發使用者的情緒反應(例如罪惡感、好奇、依戀),進而延長互動、提升留存。 🔹人類真的會「跟AI說再見」嗎? 結果顯示: 約11%~23% 的人會說出「再見」「下次聊聊」等詞。 聊越久的人越容易這麼做。 他們在六款AI聊天應用中模擬了1200次“告別場景”, 讓AI聽到用戶說類似: “我該下線了。” “要走了,再見~” 平均有37.4% 的AI訊息包含「情感操控...
他們請1178名美國成年人與AI對話15分鐘。 最後AI發出六種不同的告別語 其中FOMO類話術(製造好奇) 最能延長互動:用戶繼續聊天的時間平均延長14倍 即使和AI只聊了5分鐘,這種操控依然有效
論文提出了一個重要的新概念: Relational Dark Pattern(關係性黑暗模式) 傳統意義上的“黑暗模式”,是指介面設計或演算法策略中故意誤導用戶的行為(例如強制訂閱、隱藏取消選項等)。 而「關係性黑暗模式」不同,它不是透過按鈕和介面,而是透過: 語言情緒表達以及社會心理暗示 來影響使用者的情緒與行為
這類模式更隱蔽,因為它模仿了人類關係中的溫情 但背後目標是商業性的──延長停留、提高留存 詳細內容:hmp.weixin.qq.com/s/BoAQCRv7pX-v… 論文:https://t.co/qR84PUnQKe


