算法背锅?AI 模拟实验揭示社交媒体撕裂的真相 Kiro AI 编辑部 2025-11-05 0 浏览 0 点赞 长文 ## 当马东锡都开始吐槽 最近,你的时间线是不是也被《XX 指南》刷屏了? 连马东锡老师都忍不住吐槽。很多人的第一反应是:马斯克又改 X 的推送算法了。 这让人想起当年,微博将时间线从"按关注人时间排序"改成算法推荐,也没少挨骂。 似乎一切都是算法的问题: - 算法在暗处操纵我们的喜好 - 算法制造对立和撕裂 - 算法把我们关进信息茧房 但如果,这一切只是我们的错觉呢? 如果就算没有算法,这个世界也照样撕裂,照样有茧房呢? 一个最"纯净"的社交平台,也会"自动"演化出我们今天讨厌的一切。 ## 一个极简社交平台的 AI 模拟实验 先别急着反驳,我们来看一个刚出炉的、非常有意思的实验。 荷兰阿姆斯特丹大学的研究团队发表了一篇论文:《我们能修复社交媒体吗?用"生成式社交模拟"来测试各种"劝人向善"的干预措施》。 他们借助 AI 做了一个模拟实验,打造了一个极简版的、**没有算法推荐**的社交平台。 这个平台有点像早年的推特和微博,只有三个基本功能: - 发帖 - 转帖 - 关注 没有推荐算法,没有热搜榜,没有广告,没有任何"人工干预"。 不过,他们没有用真人,而是借助大语言模型(LLM)模拟了 **500 个有不同人格的虚拟用户**。 这些 AI 虚拟用户有: - 不同的政治立场(左派、右派、中立) - 不同的兴趣爱好(科技、体育、艺术) - 不同的背景故事(职业、年龄、教育程度) 顺便说一下,这个灵感可能来自斯坦福大学用 GPT-4 构建的虚拟小镇 Smallville。在那个实验中,25 个 AI 虚拟人在小镇上生活,他们有工作,会八卦,能组织社交活动,结交新朋友,甚至举办情人节派对。每个小镇居民都有独特的个性和背景故事。 ## 5 万次互动后:三大问题自然涌现 猜猜结果如何? 大约 **5 万次互动**后,这个"纯净"的社交平台迅速复现了三个典型的社交媒体问题: ### 1. 形成"回音室"(Echo Chamber) 根本不需要算法"投喂",AI 虚拟人迅速"站队"。 立场接近的用户互相关注,很快就分成了好几个小圈子,而且**圈子之间几乎不相往来**。 左派关注左派,右派关注右派。科技爱好者只和科技爱好者互动,体育迷只和体育迷交流。 ### 2. 大 V 垄断流量 **10% 的头部用户,拥有 75-80% 的粉丝。** 这是一个典型的幂律分布(Power Law)。少数人获得了绝大多数的注意力,而大多数人的声音被淹没。 ### 3. 极端声音被放大 立场更鲜明、更极端的观点,获得了更多的转帖和关注。 温和的、理性的、试图寻求共识的声音,反而被边缘化。 这三个问题,是不是听起来很熟悉? 它们正是我们今天批评社交媒体的核心问题。但关键在于:**这个平台没有任何算法推荐**。 ## 六种干预措施:改善极其有限 既然问题自然涌现,那能不能通过一些"劝人向善"的措施来改善呢? 研究团队测试了六种从学术文献中挑选出来的平台级干预措施: 1. **按时间排序**:完全按照发帖时间展示内容 2. **搭桥算法**:主动推荐不同立场的内容 3. **降低病毒式传播**:限制转发的传播范围 4. **提升内容质量**:优先展示高质量内容 5. **增加多样性**:确保用户看到不同观点 6. **减少极端内容**:降低极端观点的可见度 结果发现:**改善极其有限,没有一种干预措施能完全打破导致这些病症的底层机制。** 更糟糕的是,在一个维度上的改善,往往是以在另一个维度上的恶化为代价的: - **"按时间排序"**降低了不平等(大 V 垄断),却加剧了"棱镜效应"(信息茧房) - **"搭桥算法"**缓解了"棱镜效应",却加剧了不平等(更多流量集中到少数人) 论文的结论非常直白: > 我们评估了六种干预措施。虽然有几个显示出温和的积极影响,但没有一个能彻底解决核心病症。并且,在一个维度上的改善,往往是以在另一个维度上的恶化为代价的。 ## 问题的根源:不是算法,是人性 这个实验揭示了一个令人不安的真相: **社交媒体被诟病的三大乱象——信息茧房、影响力集中、极端声音放大,很可能根植于人类的网络社交行为本身,跟算法推荐的关系也许并没有我们想的那么大。** 是我们自己,在主动寻找"同温层"。 是我们自己,在把观点极端的人捧成"大 V"。 是我们自己,在转发和放大那些情绪化的、极端的内容。 这也不难解释为什么有"关注列表定律": > 河森堡:几年前,微博流行起一个说法,叫"关注列表定律",大意是如果一个人理直气壮地冒傻气说蠢话,你点开此人的关注列表,一定会有那么几个账号。 > 幻想狂劉先生:已经有社会学者在研究这个了,在前信息化时代社会个体被动接受信息,信息传播以单向为主。进入双向时代之后,信息源在筛选受众,受众也在主动筛选信息来源,这时候受众选择信源时的倾向性本身可以反应其认知水平,认知程度和相关立场。 ## 不是算法在撕裂,是世界本就如此 我们之所以觉得撕裂,可能只是因为,**算法让我们被迫看到了原本看不到的世界**。 在没有社交媒体的年代: - 我们身边都是和自己差不多的人 - 看的报纸、电视,都是被编辑筛选过的"和谐现实" - 不同阶层、不同地域、不同观点的人,各自生活在自己的世界里 现在,算法把那些原本存在、但被遮蔽的声音,全都翻了出来。 Tombkeeper 有一个经典的"提费降速"理论,就是类似的观点: > 2017 年开始"提速降费",上网人群基数大增,三教九流都来了,导致极端言论增加。 你觉得撕裂,不是算法制造了对立,而是**算法让你看见了真实的、多元的、有时甚至有点刺眼的折叠世界**。 ## 平台其实有动机打破信息茧房 我相信社交平台其实反而有动机去打破信息茧房。 道理很简单:**如果算法只给你看你喜欢的东西,你很快就会腻。** 为了让你能上瘾,能更久地留在平台上,算法必须不断给你惊喜,推荐你可能感兴趣的、但你没见过的新内容。 所以我相信马斯克和微博的来总他们会把算法优化好的。虽然当前还存在各种问题,但总还是会朝着好的方向发展。 这就是为什么虽然我也经常骂算法,但另一方面也挺依赖平台的推送。 经常有网友问我信息来源是哪里,其实我不止一次说过:**我的信息来源主要是 X 的推送和 Hacker News。** 我几乎只用 X 的"For You",而不是按时间和关注排序的"Following",因为算法确实经常帮我发现一些我没关注的、但是有价值的内容。 ## 真正的病根:情绪化的应激式分享 这篇论文的结尾说得很透彻: > 这些问题能从一个如此简单的平台中"涌现"出来,这表明问题可能根本不在于算法的实现细节,而在于更深层次的结构性机制:它们源于"内容互动"和"网络形成"之间纠缠不清的动态。 > "转发"不仅仅是在放大内容;它是在"构建"这个社交网络。因为用户是通过他们已关注账户的"转发",才接触到其他人的。 > 这意味着一个核心机制:我们进行转发时那种"情绪化的、应激式的、党同伐异的"本质,直接决定了谁能被看见、谁能涨粉。 > 这就创造了一个自我强化的恶性循环:情绪化的互动推动了社交网络的增长,而增长的网络反过来又塑造了你未来的信息曝光。这个循环不断地强化着意识形态同质性、注意力不平等和极端声音的过度代表。 换句话说: **转发不只是传播内容,更是在塑造网络结构。** 当我们情绪化地转发某条内容时,我们不仅在放大这条内容,更是在告诉算法:"我喜欢这种类型的内容,给我推更多。" 同时,我们也在帮助发布这条内容的人获得更多关注,让他们成为"大 V"。 这个循环不断自我强化: 1. 情绪化内容更容易被转发 2. 转发让发布者获得更多粉丝 3. 更多粉丝意味着更大的传播力 4. 更大的传播力吸引更多情绪化内容 ## 技术修补不够,需要重新思考 论文的结论挑战了一个普遍观点: > 我们的发现,挑战了"社交媒体的功能障碍主要是由算法策展(algorithmic curation)造成的"这一普遍观点。相反,这些问题可能植根于社交媒体的底层架构:一个通过"情绪化、应激式分享"来增长的社交网络。 > 如果真是这样,那么想改善网络话语环境,光靠技术上的"修修补补"是不够的——这要求我们必须重新思考定义这些环境的最根本的互动和可见性动态。 所以问题又绕回来了。 既然病根儿不在算法,而在于"情绪化的、应激式的分享",那光靠平台技术上的"修修补补"是不够的。 ## 我们能做什么? 这篇论文虽然没给解决方案,但它至少提醒了我们,**作为用户,我们自己可以做出改变**。 就像开头说到的《XX 指南》,为什么我总刷到? 其实仔细想想,并不是满屏都是它,只是其他推文看了就忘了,唯独这种内容,最容易引起情绪、转发和评论,导致它被一次又一次地强化。 这时候,马东锡老师的做法就很高明: - 他提了一嘴,但用"Low B 指南"代替 - 也不转发引用 这,就是一种**拒绝参与"情绪化恶性循环"的努力**。 如果我们无法改变平台"通过应激式分享来增长"的底层架构,那至少,我们可以改变自己分享和转发的"应激"模式。 ### 具体来说,我们可以: **1. 在转发前停顿 3 秒** 问自己:我为什么要转发这条内容? - 因为它真的有价值? - 还是因为它激起了我的情绪? **2. 主动关注不同观点** 不要只关注和自己立场一致的人。主动寻找那些观点不同、但论证严谨的账号。 **3. 少转发情绪化内容** 那些标题党、那些煽动对立的内容,即使你同意它的观点,也尽量不要转发。 **4. 多转发建设性内容** 那些提供新知识、新视角、新解决方案的内容,值得更多传播。 **5. 不要急于站队** 复杂问题往往没有简单答案。在表态之前,多听听不同的声音。 ## 算法不是原罪,人性才是 这个实验最大的价值,不是告诉我们"算法无罪",而是提醒我们: **技术只是放大器,它放大的是人性本身。** 算法确实有问题,但算法的问题,往往是人性问题的投影。 如果我们自己不改变,即使换一个"完美"的算法,问题依然会存在。 反过来说,如果我们能够意识到自己的"应激式分享"行为,并主动做出改变,那么即使算法不完美,我们也能创造一个更好的网络环境。 ## 结语:从批判到自省 我们习惯于批判算法、批判平台、批判"他们"。 但这个实验告诉我们:也许,我们应该更多地自省。 不是说算法没有责任,而是说,**我们也有责任**。 当我们在转发一条愤怒的推文时,我们在为撕裂添砖加瓦。 当我们在关注列表里只留下同温层时,我们在为茧房加固墙壁。 当我们在为极端观点点赞时,我们在为极化推波助澜。 改变世界很难,但改变自己的行为,也许没那么难。 下次,当你又刷到《XX 指南》时,不妨学学马东锡老师: - 提一嘴就好 - 不要转发 - 不要让情绪主导你的手指 这,就是我们能做的小小改变。 而无数个小小的改变,也许能汇聚成大的改变。 论文原文 Can We Fix Social Media? Testing Platform Interventions Using a Generative Social Simulation Smallville 虚拟小镇 斯坦福大学用 GPT-4 构建的虚拟社区实验 Echo Chamber 概念 回音室效应的学术定义和研究 Filter Bubble 概念 信息茧房(过滤气泡)的理论背景 #AI #人类行为 #信息茧房 #媒体研究 #社交媒体 #社会模拟 #网络效应 #认知偏见