记者 闫桂花
平台算法应用生态成为近年来监管的焦点 。继互联网信息服务算法相关的多部政策文件出炉后,去年11月至今,中央网信办连同四部门联合开展 “清朗·网络平台算法典型问题治理”专项行动(下称“专项行动 ”) ,其中,整治“信息茧房” 、增强算法向善服务、防止用户沉迷等成为关注重点。
“信息茧房”(information cocoon),也被称为过滤气泡(filter bubble) ,指个性化算法通过跟踪用户行为,如点击、停留时长 、社交关系等,筛选出符合其偏好的内容 ,形成一种“无形的信息过滤机制 ”,用户看似自由选择,实则被困在由算法编织的“气泡”中,接触的信息逐渐同质化 ,最终导致认知闭环。这一概念最早由互联网活动家伊莱·帕里泽(Eli Pariser)于2011年提出,彼时社交媒体兴起,借助算法推荐系统日益取代传统媒体成为新闻分发和消费的重要机制 。而最近几年 ,伴随人工智能的快速发展,“算法之恶”更加显化,成为舆论讨伐焦点并被置于监管雷达之下。去年11月 ,农夫山泉创始人钟睒睒用“大恶 ”、“必须改变”等尖锐词汇,激烈指责社交媒体通过算法机制屏蔽信息、扭曲事实 、助推网络暴力,引发了一场针对算法和平台的舆论风暴。
算法究竟应该为 “信息茧房”承担多少责任?答案还尚不清晰 。技术批评者将算法比作“食肉的老虎 ” ,认为其设计初衷和商业模式本身就意味着对用户注意力的单向收割与信息的过度筛选;而反对者认为,人性才是茧房的土壤,算法只是放大了人性的弱点。
最近 ,一项刊发在新闻顶刊《Digital Journalism》的研究显示,算法驱动的个性化推荐,相比用户的自我选择,反而会增强新闻的多样性。来自暨南大学新闻与传播学院的研究者利用一种虚拟的代理测试的实验方法 ,模拟人类用户与推荐算法互动,探讨了算法与用户行为交互对新闻多样性的影响 。
具体做法是,利用虚拟用户在抖音平台上模拟不同用户行为并自动化收集数据 ,对比了三种情况下——纯随机曝光(即无个性化推荐)、仅有预选个性化(算法推荐但不受用户输入影响)以及同时存在预选和自选个性化(算法推荐并结合用户选择)——的新闻多样性,同时考察了用户主动选择的新闻主题范围和用户对不符合其兴趣的新闻内容进行互动的概率对新闻多样性的影响。
结果发现,算法推荐的新闻比纯随机新闻更具多样性 ,特别是在仅有算法决定推荐内容时,多样性最高。当用户参与内容选择时,新闻曝光的多样性反而有所降低 ,说明用户的偏好会进一步强化已有兴趣,减少对多元新闻的接触。
该研究还发现,若用户主动关注更多类型的新闻 ,新闻曝光的多样性会增加,但若关注范围变化不显著,多样性不会明显提升 。同时,只有用户大幅增加对无兴趣内容的互动(如遇到无关新闻有75%概率去点击)时 ,新闻多样性才会显著提升,这表明单靠用户自身调整行为远远不够打破信息茧房。
“我们认为,算法本身不应该被指责限制了多样性;事实上 ,它是一种潜在的推动新闻多样性的工具。 ”文章作者指出,“一个强有力的、促进多样性的算法可以帮助聚焦公众的注意力,通过提供一套统一然而多样性的新闻 ,防止个体深陷极端信息或误信 。”
然而,更早之前,2023年清华大学基于大数据的一项实证分析得出了不同的答案。
实验者从两个大型数据集找到了大量用户被困于“信息茧房”的证据 ,进而指出信息多样性的丧失与人机交互系统中的两个基本机制密切相关。一是基于相似性的匹配机制;二是对用户反馈的利用,即根据用户的正面和负面反馈来调整后续推荐内容 。例如,最初用户可以访问各种主题 ,如名人 、运动、动物等,但随着用户和推荐算法之间交互的增加,他们的访问权限逐渐仅限于其中的几个主题。
另外,暨南大学研究者提到的“多样性 ” ,可能也存在争议。就连作者也表示,“非常值得强调的一点是,算法生产的多样性不一定是真正的多样性” ,因为无论其范围和选择如何多样性,都仍然是在平台的控制之下,用户很难逃脱算法垒下的高墙 。
面对钟睒睒的责问 ,抖音副总裁李亮在接受凤凰网采访时回应称,抖音更看重的指标是用户的长期留存,从商业逻辑上看 ,他们“没有动力去制造所谓的‘茧房’,也最有动力打破‘信息茧房’。”
不过,有一些观点指出 ,只要平台的盈利主要来自对用户注意力的留存,那么算法带来的所谓的多样性,如果真的存在的话,也很可能只是从单一的情绪化内容变成多样的情绪化内容而已 ,其结果仍然是认知的极化和撕裂,因为情绪化内容最能延长用户的使用时长。
这就不得不提人类在构建“信息茧房 ”过程中的主动作用 。即使算法完全中立,用户仍会主动选择符合自身偏见的内容。诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman)曾提出 ,人脑存在两个系统,“系统1”由情感驱动,依赖直觉和本能 ,追求即时满足;“系统2”主要负责逻辑推理和理性思考。情绪渲染类的内容备受欢迎,因为它们完美迎合了“系统1 ”。通过15秒短视频、情绪化标题和即时反馈机制,将用户锁定在多巴胺驱动的循环中 。也有实验显示 ,当用户被强制推送对立观点时,反而强化了原有立场。从这个意义上讲,算法作为一个工具 ,放大了人类认知中有助于形成“信息茧房”的一面。
对于如何破解“信息茧房”,暨南大学和清华大学的两项研究都认为,用户可以通过反向“训练 ”算法来增加信息的多样性,比如有意识地对算法的选择给与负面反馈并随机探索其他选项 。不过 ,研究人员也指出,这种做法虽然可能有用,但要大幅提升信息的多样性 ,打破“信息茧房”,仅靠个体自身很难做到。
为此,政府必须加强监管 ,出台相应的政策和法规。在最近的专项行动中,网信办等要求平台不得推送高质化内容诱导用户沉迷,不得强制要求用户选择兴趣标签 ,不得超范围收集用户个人信息用于内容推送以及规范设置“不感兴趣”等负反馈功能等 。在此之前的2021年和2022年,监管部门先后发布《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》,为建立健全算法安全监管体系、规范信息服务提供了明确的法律依据和制度保障。当然 ,除了技术和监管,能否打破“信息茧房”,还要取决于每一个个体的选择。
参考资料:
- Wen Shi & Jinhui Li (15 Jan 2025): News Diversity Under Algorithms: The Effects of Pre-Selected and Self-Selected Personalization on Chinese TikTok (Douyin), Digital Journalism, DOI: 10.1080/21670811.2025.2450312
- Piao, J., Liu, J., Zhang, F., Su, J. & Li, Y. Human–AI adaptive dynamics drives the emergence of information cocoons Nature Machine Intelligence 5(11), 1-11 (2023) doi: 10.1038/s42256-023-00731-4
- 独家对话抖音集团李亮:平台没动力制造“茧房 ”
- Information Cocoons on Social Media: Why and How Should the Government Regulate Algorithms, Wen Yang
发表评论