LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @Teknium: @apples_jimmy @JasonBotterill3 Still waiting 2 years later for the livestream my screen to chatgpt that we were promised

RT @Teknium: @apples_jimmy @JasonBotterill3 Still waiting 2 years later for the livestream my screen to chatgpt that we were promised

Cofounder and Head of Post Training @NousResearch, prev @StabilityAI Github: https://t.co/LZwHTUFwPq HuggingFace: https://t.co/sN2FFU8PVE

avatar for Teknium (e/λ)
Teknium (e/λ)
Wed Nov 05 06:45:09
Task failed successfully.

Task failed successfully.

We're sharing/showcasing best of @github projects/repos. Follow to stay in loop. Promoting Open-Source Contributions. UNOFFICIAL, but followed by github

avatar for GitHub Projects Community
GitHub Projects Community
Wed Nov 05 06:42:31
Great set of "instructions" for anyone who landed on someone else's codebase.

Great set of "instructions" for anyone who landed on someone else's codebase.

~20 yrs in web-dev, now mostly Laravel. My Laravel courses: https://t.co/HRUAJdMRZL My Youtube channel: https://t.co/qPQAkaov2F

avatar for Povilas Korop | Laravel Courses Creator & Youtuber
Povilas Korop | Laravel Courses Creator & Youtuber
Wed Nov 05 06:42:00
论文地址:https://t.co/XrPXNOUSYr

论文地址:https://t.co/XrPXNOUSYr

Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.

avatar for 宝玉
宝玉
Wed Nov 05 06:41:50
最近,你是不是也总刷到《XX 指南》?

连马东锡老师都忍不住吐槽了。我也有同感,刷到一堆《XX 指南》的推文,第一反应就是骂马斯克又改 X 的推送算法了。这就像当年,来总将微博时间线从“按关注人时间排序”改成算法推荐,也没少挨骂。

似乎一切都是算法的问题:算法在暗处操纵喜好、制造对立,把我们关进一个个信息茧房。

但如果,这一切只是我们的错觉呢?如果就算没有算法,这个世界也照样撕裂,照样有茧房呢?一个最“纯净”的社交平台,也会“自动”演化出我们今天讨厌的一切!

先别急着反驳,我们来看一个刚出炉的、非常有意思的实验。

来自荷兰阿姆斯特丹大学的一篇论文《我们能修复社交媒体吗?用“生成式社交模拟”来测试各种“劝人向善”的干预措施》,就借助 AI 做了一个模拟试验,他们打造了一个极简版的没有算法推荐的社交平台,有点像早年的推特和微博,只有发帖、转帖和关注功能。

不过他们没有用真人,而是借助 LLM(大语言模型)模拟了 500 个有不同人格的虚拟用户,这些 AI 虚拟用户有不同的政治立场、兴趣爱好和背景。
(顺便说一下,感觉他们这个灵感来自当年斯坦福用 GPT-4 构建的一个名为 Smallville 的虚拟小镇,25 个 AI 虚拟人在小镇上生活,他们有工作,会八卦,能组织社交,结交新朋友,甚至举办情人节派对,每个小镇居民都有独特的个性和背景故事。)

猜猜结果如何?

大约 5 万次互动就很快复现了三个典型的社交媒体问题:

1. 形成“回音室”:根本不需要算法“投喂”,AI 虚拟人迅速“站队” 。立场接近的互相关注,很快就分成了好几个小圈子,而且圈子之间几乎不相往来 。

2. 大v 们垄断流量:10%的头部用户,拥有 75-80% 的粉丝。

3. 极端声音被放大:立场更鲜明、更极端的观点,获得了更多的转帖和关注。

然后,他们测试了六种从文献中挑选出来的平台级干预措施,结果发现改善极其有限,没有一种干预措施能完全打破导致这些病症的底层机制,有些改变甚至让问题变得更糟:
> 我们评估了六种干预措施。虽然有几个显示出温和的积极影响,但没有一个能彻底解决核心病症。并且,在一个维度上的改善,往往是以在另一个维度上的恶化为代价的。(例如:“按时间排序”降低了不平等,却加剧了“棱镜效应”;“搭桥算法”缓解了“棱镜效应”,却加剧了不平等。)

社交媒体被诟病的三大乱象——信息茧房、影响力集中、极端声音放大,很可能根植于人类的网络社交行为本身,跟算法推荐的关系也许并没有我们想的那么大。是我们自己,在主动寻找“同温层”,是我们自己,在把观点极端的人捧成“大v”。

这也不难解释为什么有“关注列表定律”:

> @河森堡:几年前,微博流行起一个说法,叫 “关注列表定律”,大意是如果一个人如果理直气壮地冒傻气说蠢话,你点开此人的关注列表,一定会有那么几个账号。

> @幻想狂劉先生: 已经有社会学者在研究这个了,在前信息化时代社会个体被动接受信息,信息传播以单向为主。进入双向时代之后,信息源在筛选受众,受众也在主动筛选信息来源,这时候受众选择信源时的倾向性本身可以反应其认知水平,认知程度和相关立场。

不是算法在撕裂社交媒体,是世界本就如此。我们之所以觉得撕裂,可能只是因为,算法让我们被迫看到了原本看不到的世界。

在没有社交媒体的年代,我们身边都是和自己差不多的人,看的报纸、电视,都是被编辑筛选过的和谐现实。现在,算法把那些原本存在、但被遮蔽的声音,全都翻了出来 。

Tombkeeper 有一个经典的“提费降速”理论,就是类似的观点,大意是2017 年开始“提速降费”,上网人群基数大增,三教九流都来了,导致极端言论增加。

你觉得撕裂,不是算法制造了对立,而是算法让你看见了真实的、多元的、有时甚至有点刺眼的折叠世界。

我相信社交平台其实反而有动机去打破信息茧房。道理很简单:如果算法只给你看你喜欢的东西,你很快就会腻。为了让你能上瘾,能更久地留在平台上,算法必须不断给你惊喜,推荐你可能感兴趣的、但你没见过的新内容。

所以我相信老马和来总他们会把算法优化好的,虽然当前还存在各种问题,总还是会朝着好的方向发展。

这就是为什么虽然我也经常骂老马和来总的算法,但我另一方面也挺依赖平台的推送。 经常有网友问我信息来源是哪里,其实我不止一次说过:我的信息来源主要是 X 的推送和 Hacker News。我几乎只用 X 的“For You”,而不是按时间和关注排序的“Following”,因为算法确实经常帮我发现一些我没关注的、但是有价值的内容。

这篇论文《我们能修复社交媒体吗?》的结尾说的很透彻:

> 这些问题能从一个如此简单的平台中“涌现”出来,这表明问题可能根本不在于算法的实现细节,而在于更深层次的结构性机制:它们源于“内容互动”和“网络形成”之间纠缠不清的动态。
>
> “转发”不仅仅是在放大内容;它是在“构建”这个社交网络。因为用户是通过他们已关注账户的“转发”,才接触到其他人的。
>
> 这意味着一个核心机制:我们进行转发时那种“情绪化的、应激式的、党同伐异的”本质,直接决定了谁能被看见、谁能涨粉。
>
> 这就创造了一个自我强化的恶性循环:情绪化的互动 推动了 社交网络的增长,而 增长的网络反过来又 塑造了你未来的信息曝光。这个循环不断地强化着意识形态同质性、注意力不平等和极端声音的过度代表。
>
> 我们的发现,挑战了“社交媒体的功能障碍主要是由算法策展(algorithmic curation)造成的”这一普遍观点。相反,这些问题可能植根于社交媒体的底层架构:一个通过“情绪化、应激式分享”来增长的社交网络。
>
> 如果真是这样,那么想改善网络话语环境,光靠技术上的“修修补补”是不够的——这要求我们必须重新思考定义这些环境的最根本的互动和可见性动态。

所以问题又绕回来了。既然病根儿不在算法,而在于“情绪化的、应激式的分享”,那光靠平台技术上的“修修补补”是不够的。

这篇论文虽然没给解决方案,但它至少提醒了我们,作为用户,我们自己可以做出改变。

就像开头说到的《XX 指南》,为什么我总刷到?其实仔细想想,并不是满屏都是它,只是其他推文看了就忘了,唯独这种内容,最容易引起情绪、转发和评论,导致它被一次又一次地强化。

这时候,马东锡老师的做法就很高明:他提了一嘴,但用“Low B 指南”代替,也不转发引用。

这,就是一种拒绝参与“情绪化恶性循环”的努力。

如果我们无法改变平台“通过应激式分享来增长”的底层架构,那至少,我们可以改变自己分享和转发的“应激”模式。

最近,你是不是也总刷到《XX 指南》? 连马东锡老师都忍不住吐槽了。我也有同感,刷到一堆《XX 指南》的推文,第一反应就是骂马斯克又改 X 的推送算法了。这就像当年,来总将微博时间线从“按关注人时间排序”改成算法推荐,也没少挨骂。 似乎一切都是算法的问题:算法在暗处操纵喜好、制造对立,把我们关进一个个信息茧房。 但如果,这一切只是我们的错觉呢?如果就算没有算法,这个世界也照样撕裂,照样有茧房呢?一个最“纯净”的社交平台,也会“自动”演化出我们今天讨厌的一切! 先别急着反驳,我们来看一个刚出炉的、非常有意思的实验。 来自荷兰阿姆斯特丹大学的一篇论文《我们能修复社交媒体吗?用“生成式社交模拟”来测试各种“劝人向善”的干预措施》,就借助 AI 做了一个模拟试验,他们打造了一个极简版的没有算法推荐的社交平台,有点像早年的推特和微博,只有发帖、转帖和关注功能。 不过他们没有用真人,而是借助 LLM(大语言模型)模拟了 500 个有不同人格的虚拟用户,这些 AI 虚拟用户有不同的政治立场、兴趣爱好和背景。 (顺便说一下,感觉他们这个灵感来自当年斯坦福用 GPT-4 构建的一个名为 Smallville 的虚拟小镇,25 个 AI 虚拟人在小镇上生活,他们有工作,会八卦,能组织社交,结交新朋友,甚至举办情人节派对,每个小镇居民都有独特的个性和背景故事。) 猜猜结果如何? 大约 5 万次互动就很快复现了三个典型的社交媒体问题: 1. 形成“回音室”:根本不需要算法“投喂”,AI 虚拟人迅速“站队” 。立场接近的互相关注,很快就分成了好几个小圈子,而且圈子之间几乎不相往来 。 2. 大v 们垄断流量:10%的头部用户,拥有 75-80% 的粉丝。 3. 极端声音被放大:立场更鲜明、更极端的观点,获得了更多的转帖和关注。 然后,他们测试了六种从文献中挑选出来的平台级干预措施,结果发现改善极其有限,没有一种干预措施能完全打破导致这些病症的底层机制,有些改变甚至让问题变得更糟: > 我们评估了六种干预措施。虽然有几个显示出温和的积极影响,但没有一个能彻底解决核心病症。并且,在一个维度上的改善,往往是以在另一个维度上的恶化为代价的。(例如:“按时间排序”降低了不平等,却加剧了“棱镜效应”;“搭桥算法”缓解了“棱镜效应”,却加剧了不平等。) 社交媒体被诟病的三大乱象——信息茧房、影响力集中、极端声音放大,很可能根植于人类的网络社交行为本身,跟算法推荐的关系也许并没有我们想的那么大。是我们自己,在主动寻找“同温层”,是我们自己,在把观点极端的人捧成“大v”。 这也不难解释为什么有“关注列表定律”: > @河森堡:几年前,微博流行起一个说法,叫 “关注列表定律”,大意是如果一个人如果理直气壮地冒傻气说蠢话,你点开此人的关注列表,一定会有那么几个账号。 > @幻想狂劉先生: 已经有社会学者在研究这个了,在前信息化时代社会个体被动接受信息,信息传播以单向为主。进入双向时代之后,信息源在筛选受众,受众也在主动筛选信息来源,这时候受众选择信源时的倾向性本身可以反应其认知水平,认知程度和相关立场。 不是算法在撕裂社交媒体,是世界本就如此。我们之所以觉得撕裂,可能只是因为,算法让我们被迫看到了原本看不到的世界。 在没有社交媒体的年代,我们身边都是和自己差不多的人,看的报纸、电视,都是被编辑筛选过的和谐现实。现在,算法把那些原本存在、但被遮蔽的声音,全都翻了出来 。 Tombkeeper 有一个经典的“提费降速”理论,就是类似的观点,大意是2017 年开始“提速降费”,上网人群基数大增,三教九流都来了,导致极端言论增加。 你觉得撕裂,不是算法制造了对立,而是算法让你看见了真实的、多元的、有时甚至有点刺眼的折叠世界。 我相信社交平台其实反而有动机去打破信息茧房。道理很简单:如果算法只给你看你喜欢的东西,你很快就会腻。为了让你能上瘾,能更久地留在平台上,算法必须不断给你惊喜,推荐你可能感兴趣的、但你没见过的新内容。 所以我相信老马和来总他们会把算法优化好的,虽然当前还存在各种问题,总还是会朝着好的方向发展。 这就是为什么虽然我也经常骂老马和来总的算法,但我另一方面也挺依赖平台的推送。 经常有网友问我信息来源是哪里,其实我不止一次说过:我的信息来源主要是 X 的推送和 Hacker News。我几乎只用 X 的“For You”,而不是按时间和关注排序的“Following”,因为算法确实经常帮我发现一些我没关注的、但是有价值的内容。 这篇论文《我们能修复社交媒体吗?》的结尾说的很透彻: > 这些问题能从一个如此简单的平台中“涌现”出来,这表明问题可能根本不在于算法的实现细节,而在于更深层次的结构性机制:它们源于“内容互动”和“网络形成”之间纠缠不清的动态。 > > “转发”不仅仅是在放大内容;它是在“构建”这个社交网络。因为用户是通过他们已关注账户的“转发”,才接触到其他人的。 > > 这意味着一个核心机制:我们进行转发时那种“情绪化的、应激式的、党同伐异的”本质,直接决定了谁能被看见、谁能涨粉。 > > 这就创造了一个自我强化的恶性循环:情绪化的互动 推动了 社交网络的增长,而 增长的网络反过来又 塑造了你未来的信息曝光。这个循环不断地强化着意识形态同质性、注意力不平等和极端声音的过度代表。 > > 我们的发现,挑战了“社交媒体的功能障碍主要是由算法策展(algorithmic curation)造成的”这一普遍观点。相反,这些问题可能植根于社交媒体的底层架构:一个通过“情绪化、应激式分享”来增长的社交网络。 > > 如果真是这样,那么想改善网络话语环境,光靠技术上的“修修补补”是不够的——这要求我们必须重新思考定义这些环境的最根本的互动和可见性动态。 所以问题又绕回来了。既然病根儿不在算法,而在于“情绪化的、应激式的分享”,那光靠平台技术上的“修修补补”是不够的。 这篇论文虽然没给解决方案,但它至少提醒了我们,作为用户,我们自己可以做出改变。 就像开头说到的《XX 指南》,为什么我总刷到?其实仔细想想,并不是满屏都是它,只是其他推文看了就忘了,唯独这种内容,最容易引起情绪、转发和评论,导致它被一次又一次地强化。 这时候,马东锡老师的做法就很高明:他提了一嘴,但用“Low B 指南”代替,也不转发引用。 这,就是一种拒绝参与“情绪化恶性循环”的努力。 如果我们无法改变平台“通过应激式分享来增长”的底层架构,那至少,我们可以改变自己分享和转发的“应激”模式。

论文地址:https://t.co/XrPXNOUSYr

avatar for 宝玉
宝玉
Wed Nov 05 06:41:49
Are we in a bubble? 🤔

Are we in a bubble? 🤔

I build stuff. On my way to making $1M 💰 My projects 👇

avatar for Florin Pop 👨🏻‍💻
Florin Pop 👨🏻‍💻
Wed Nov 05 06:32:42
  • Previous
  • 1
  • More pages
  • 913
  • 914
  • 915
  • More pages
  • 2117
  • Next