我可以毫不夸张地说,这大概是你在推特上看到最多的一类评论。
《如何在简体中文的虚假新闻里找到原本的真相?》是 2022 年在三年疫情最「疯狂」的那一年所创作的。4 年之后,人们已经找到了另一套可以追溯真相的方法,比那个时候要轻松和聪明太多。
首先需要承认的是,信息验证原本并不完全属于信息接受者的工作,而且信息验证的工作非常复杂且繁琐。加上信息媒体作为政权的一部分,「让谁听到怎样的信息」原本也是社会运作的一部分。就像基本盘会比伊朗人更心疼哈梅内伊,如果基本盘不被困在这样的信息茧房里,就必然会导致更严重的社会不稳定性——这是政治学的部分,暂时不在今天的讨论范围。
所以,当信息的验证变成信息接收者的工作时,必然会依赖,甚至完全依赖一个看似客观的工具,来高效、快速地溯源。
信息传播的平面化
在信息匮乏、存在严重滞后性的时代,信息传播依赖于三种角色的共同协作:
- 信息生产者;
- 信息传播者;
- 信息验证者;
在传统媒体时代,记者是信息生产的主要角色;而各大媒体提供传播平台;编辑部、事实核查机构作为信息验证者,保证传播媒体的权威性。而在如今这个信息爆炸的时代,任何人都可以是信息的产生者,平台只作为分发渠道,对信息的验证也仅仅是「事后验证」,比如当内容存疑或被举报后,才会明确标注不实信息。自然而然,信息的接受者在接受大量信息的同时,也附带了「信息验证」的工作。
信息传播不再像以前那样呈漏斗形的筛选过滤,而变成了完全平面化的结构。错误信息的传播可能会在最短的时间内被产生、传播,在没有被验证的情况下被人误传,甚至形成「曼德拉效应」,即集体记忆中出现普遍性的错误认知。
就拿我当初写《如何在简体中文的虚假新闻里找到原本的真相?》为例,那天我花了一个早上的时间来寻找这条假新闻的真实出处。虽然互联网有迹可循,但信息就跟兔子洞一样,每进入一个新的论点,就会有无数个需要被验证的论据同时出现。
这个过程需要大量时间精力、专业知识(如果没有,就需要依赖互联网的「兔子洞」)、信息渠道。在我寻找的信息渠道里,不仅有英语,还有原始新闻出处的德语语境。虽然翻译软件已经可以满足大部分的日常阅读,但对于一些特定和专业的词汇,仍需要考究是否存在歧义——这才是新闻的意义。
如果有一个工具可以完全涵盖刚才提到的三个要素,那人们为什么不使用它呢?
认知过滤器是进水系统、还是循环系统?
最近老是在小红书刷到养鱼的视频,我自己养过鱼,光是在缸里养水就没有耐心了。刷了太多相关视频后,我总结出两套养鱼的系统:进水系统和循环系统。
很多人的鱼缸越养越浑浊,有人觉得是水没有养好,所以需要一开始就要求进鱼缸的水是「养好」的。另一种人则认为,自己的鱼缸没有任何过滤系统,也不用打氧,照样养得很清透,是因为他们在鱼缸里建立了一套能够消耗废水的循环系统,比如虾螺水藻之类的。
那把这两套系统安装在「大脑接受信息」里是否也成立?为什么有的人脑子越来越浑,对信息一味接受,最终导致基本盘的养成。那如果人们对每一条信息都抱有质疑,这种生活也不见得幸福,特别是在如今这个信息过载的世界,对每一条信息都完全客观、理性,很快就会导致一个人的前额叶系统崩毁。
认知系统跟鱼缸的相似性,在于大脑很容易接受一套完美、平衡、自洽的认知系统。一旦有外在的威胁,比如鱼缸里被放了会追逐其他鱼的斗鱼,整个鱼缸原本的生态系统就会被破坏。Grok 在推特上,不仅符合了刚才提到的信息验证三要素,人们在依赖它的同时,也充当了认知过滤器的功能。
什么是真的、什么是假的、他在表达什么、你怎么理解,以及从以下图片中抹除你认为最差的手机……
那这套系统到底是用来作为「进水系统」?即我用它来确定哪些信息值得我接受;或是用来作为「循环系统」?即它可以辅助我确定新闻的真实性与观点反驳,从而保持认知系统的生态系统。
权威身份转移
此前我还比较难以理解人们凡事依赖 AI 的习惯,但最近我也在接受这件事,因为权威身份这件事并不会因为 AI 时代的来临而消失,人们依旧在追寻权威,从以前的报刊杂志、主流媒体,到现在的 AI 算法权威。
有趣的是,就算到了算法权威的时代,通过鄙视链存在的权威性仍然存在:使用 ChatGPT 的瞧不起使用豆包的,会部署龙虾的瞧不上只会跟大语言模型聊天的……
后宫剧有一个精妙的「底层逻辑」,往往会以一句台词的方式出现:门户多了,自然就有了矛盾。任何事情,只要有了不同的「门户」,就必然会有矛盾发生;权威太多,必然就是「谁更权威的讨论」——你喜欢吃番茄,就一定有人站出来说他喜欢吃 Omakase 里被腌制过的番茄,因为对他来说,只有通过这种无形的对比才能体现出自己的「高级」。
好了,我顺理成章地挖出了下一个「骂」点。
除去 @Grok 的功能性部分,也不能忽视人们用它来作为一种权威身份的标签,即我凡事 @Grok 是一种用来证明自己「理性求证」、在群体中拥有更高道德地位,以及对他人质疑的权利的展现。
但辩论的观点是他们发出的吗?显然不是,而是一个大语言模型组织的语言;但身份标签已经获得,所以观点与否对他们来说并不重要。
独立思考仍是信息风暴里的暂刻宁静
除了人们会因为权威依附,认为「AI=客观真相」以外,在关于真实性验证的训练里,我也担忧信息源污染的问题。比如,AI 能识别出社会里的「曼德拉效应」吗?当互联网本身已经被谣言污染的时候,AI 是起到净化功能,还是循环放大的功能?
再者,依旧是此前老生常谈的部分——将一个人的思维模式外包给 AI,是否真的会削弱一个人对事实判断的能力,甚至剥夺批判性思维?
要知道,这样的事已经发生过一次了——Google effect,人们更容易忘记那些能在 Google 上被找到的东西。
解决方案
@Grok 解决方案是什么?

