最近,你是不是也總刷到《XX 指南》? 連馬東錫老師都忍不住吐槽了。我也有同感,刷到一堆《XX 指南》的推文,第一個反應就是罵馬斯克又改X 的推播演算法了。這就像當年,來總將微博時間線從「依照關注人時間排序」改成演算法推薦,也沒少挨罵。 似乎一切都是演算法的問題:演算法在暗處操縱喜好、製造對立,把我們關進一個個資訊繭房。 但如果,這一切只是我們的錯覺呢?如果就算沒有演算法,這個世界也照樣撕裂,照樣有繭房呢?一個最「純淨」的社群平台,也會「自動」演化出我們今天討厭的一切! 先別急著反駁,我們來看一個剛出爐的、非常有趣的實驗。 來自荷蘭阿姆斯特丹大學的論文《我們能修復社群媒體嗎?用「生成式社交模擬」來測試各種「勸人向善」的干預措施》,就借助AI 做了一個模擬試驗,他們打造了一個極簡版的沒有算法推薦的社交平台,有點像早年的推特和微博,只有發帖、轉帖和關注功能。 不過他們沒有用真人,而是藉助LLM(大語言模型)模擬了500 個有不同人格的虛擬用戶,這些AI 虛擬用戶有不同的政治立場、興趣和背景。 (順便說一下,感覺他們這個靈感來自當年斯坦福用GPT-4 構建的一個名為Smallville 的虛擬小鎮,25 個AI 虛擬人在小鎮上生活,他們有工作,會八卦,能組織社交,結交新朋友,甚至舉辦情人節派對,每個小鎮居民都有獨特的個性和背景故事。) 猜猜看結果如何? 大約5 萬次互動很快就復現了三個典型的社群媒體問題: 1. 形成“回音室”:根本不需要演算法“投餵”,AI 虛擬人迅速“站隊” 。立場接近的互相關注,很快就分成了好幾個小圈子,而且圈子之間幾乎不相往來。 2. 大v 壟斷流量:10%的頭部用戶,擁有75-80% 的粉絲。 3. 極端聲音被放大:立場更鮮明、更極端的觀點,獲得了更多的轉帖和關注。 然後,他們測試了六種從文獻中挑選出來的平台級幹預措施,結果發現改善極其有限,沒有一種幹預措施能完全打破導致這些病症的底層機制,有些改變甚至讓問題變得更糟: > 我們評估了六種介入措施。雖然有幾個顯示出溫和的正面影響,但沒有一個能徹底解決核心病症。並且,在一個維度上的改善,往往是以在另一個維度上的惡化為代價的。 (例如:“按時間排序”降低了不平等,卻加劇了“棱鏡效應”;“搭橋演算法”緩解了“棱鏡效應”,卻加劇了不平等。) 社群媒體被詬病的三大亂象——資訊繭房、影響力集中、極端聲音放大,很可能根植於人類的網路社交行為本身,跟演算法推薦的關係也許並沒有我們想的那麼大。是我們自己,在主動尋找“同溫層”,是我們自己,在把觀點極端的人捧成“大v”。 這也不難解釋為什麼有「關注列表定律」: > @河森堡:幾年前,微博流行起一個說法,叫“關注列表定律”,大意是如果一個人如果理直氣壯地冒傻氣說蠢話,你點開此人的關注列表,一定會有那麼幾個帳號。 > @幻想狂劉先生: 已經有社會學者在研究這個了,在前信息化時代社會個體被動接受信息,信息傳播以單向為主。進入雙向時代之後,資訊來源在篩選受眾,受眾也在主動篩選資訊來源,這時候受眾選擇信源時的傾向性本身可以反應其認知水平,認知程度和相關立場。 不是演算法在撕裂社群媒體,是世界本來就如此。我們之所以覺得撕裂,可能只是因為,演算法讓我們被迫看到了原本看不見的世界。 在沒有社群媒體的年代,我們身邊都是和自己差不多的人,看的報紙、電視,都是被編輯篩選過的和諧現實。現在,演算法把那些原本存在、卻被遮蔽的聲音,全都翻了出來。 Tombkeeper 有一個經典的“提費降速”理論,就是類似的觀點,大意是2017 年開始“提速降費”,上網人群基數大增,三教九流都來了,導致極端言論增加。 你覺得撕裂,不是演算法製造了對立,而是演算法讓你看見了真實的、多元的、有時甚至有點刺眼的折疊世界。 我相信社群平台其實反而有動機去打破資訊繭房。道理很簡單:如果演算法只給你看你喜歡的東西,你很快就會變得膩。為了讓你能上癮,能更久地留在平台上,演算法必須不斷給你驚喜,推薦你可能感興趣的、但你沒見過的新內容。 所以我相信老馬和來總他們會把演算法優化好的,雖然目前還存在著各種問題,總是會朝著好的方向發展。 這就是為什麼雖然我也常罵老馬和來總的演算法,但我另一方面也挺依賴平台的推播。 常常有網友問我資訊來源是哪裡,其實我不只一次說過:我的資料來源主要是X 的推播和Hacker News。我幾乎只用X 的“For You”,而不是按時間和關注排序的“Following”,因為演算法確實經常幫我發現一些我沒關注的、但是有價值的內容。 這篇論文《我們能修復社群媒體嗎? 》的結尾說的很透徹: > 這些問題能從一個如此簡單的平台中「湧現」出來,這表明問題可能根本不在於演算法的實作細節,而是更深層的結構性機制:它們源自於「內容互動」和「網路形成」之間糾纏不清的動態。 > > 「轉發」不只是放大內容;它是在「建構」這個社群網路。因為用戶是透過他們已關注帳戶的“轉發”,才接觸到其他人的。 > > 這意味著一個核心機制:我們進行轉發時那種「情緒化的、應激式的、黨同伐異的」本質,直接決定了誰能被看見、誰能漲粉。 > > 這創造了一個自我強化的惡性循環:情緒化的互動推動了社交網路的成長,而成長的網路反過來又塑造了你未來訊息的曝光。這個循環不斷地強化著意識形態同質性、注意力不平等和極端聲音的過度代表。 > > 我們的發現,挑戰了「社群媒體的功能障礙主要是由演算法策展(algorithmic curation)造成的」這一普遍觀點。相反,這些問題可能植根於社群媒體的底層架構:一個透過「情緒化、壓力式分享」來成長的社群網路。 > > 如果是這樣,那麼想改善網路話語環境,光靠技術上的「修修補補」是不夠的——這要求我們必須重新思考定義這些環境的最根本的互動和可見性動態。 所以問題又繞回來了。既然病根兒不在演算法,而在於“情緒化的、壓力式的分享”,那光靠平台技術上的“修修補補”是不夠的。 這篇論文雖然沒有給解決方案,但它至少提醒了我們,身為用戶,我們自己可以做出改變。 就像開頭說到的《XX 指南》,為什麼我總刷到?其實仔細想想,並不是滿屏都是它,只是其他推文看了就忘了,唯獨這種內容,最容易引起情緒、轉發和評論,導致它被一次又一次地強化。 這時候,馬東錫老師的做法就很高明:他提了一嘴,但用「Low B 指南」代替,也不轉發引用。 這,就是一種拒絕參與「情緒惡性循環」的努力。 如果我們無法改變平台「透過壓力式分享來成長」的底層架構,那至少,我們可以改變自己分享和轉發的「壓力」模式。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
