我在作为信息接收者时,是以保持逻辑的方式在接收信息,所以很容易分辨出人们在自己表达的观点里是否掺杂过 AI 辅助的逻辑。其实这一点很好分辨,因为一个人的逻辑在时间线性下是可以看出变化的,就算是自我否定,人们的逻辑也是延续性的。
比如一个人一开始喜欢吃白饭,后面他突然表达了吃白饭会死人的观点。这中间如果没有自我的逻辑连续,就会出现断层。所以人们在表达一个区别于以往观点的内容时,仍然会优先为自己过去的选择进行「找补」,这是出于人性的本能,也是一种自我保护。
如果长期依赖 AI 进行逻辑构建,中间会缺少联系性,所以如果你比较依赖 AI 提供观点,我的建议是建立一个项目,里面先汇总你的三观问题。三观列表我未来也会呈现在博客里,这样可以约束 AI 在模仿你的逻辑进行思考时,被规范在一个「人类逻辑」框架里。
当然,这是后话。
之所以标题说是翻车实录,是因为看到一个人在对小米 SU7 撞击起火车门无法打开的新闻的评价,我必须承认,这个人很有「逻辑」,这个逻辑的底层几乎就是我让 ChatGPT 帮我解读新闻的逻辑。GPT 几乎是在客观视角回答了它对这场事故的看法,即驾驶行为失误 + 高速失控 + 碰撞导致结构破坏 + 电控部件受损(可能含电子锁断电/失效)的综合结果,而不是单一「设计必然缺陷」。
这件事存在两层「瑕疵性」,即驾驶员饮酒或醉酒驾驶的瑕疵性,导致了车辆交通违法;以及产品设计的「瑕疵性」(目前被讨论得最广泛的),即车门设计是否采用纯电子把手,而未具备机械冗余门把手,或实际具备但事故发生后导致功能无法正常使用。于是网络上流传了几种逻辑路径:
- 受害者有罪论路径。这也是中国媒体和二元对立思维比较习惯性的思考路径,即受害人的瑕疵可以覆盖产品设计瑕疵,甚至涵盖整个事故的最终责任。他既然是一个饮酒驾驶的人,那这就是他应该付出的代价,跟车辆设计没有关系;
- 比较路径。小米汽车在撞击后车门变形,你去开一辆油车这么快的速度撞击车辆也会变形打不开。即诉诸逻辑谬误,AB 不同,只要证明 A 是错的,那么 B 就是对的;
- 轻化概率路径。小米汽车发生事故后,以偏概全认为其质量存在严重问题。特别是在今年已经陆续发生铜陵三女性车祸身亡、将受调查召回隐含为免费 OTA 升级、前段时间的坠海和这几天的天府大道爆燃事件等,虽然已经发生多起有关小米的公关事故,但仍然不能轻易地将事故与质量问题进行结果对等;
- 稻草人谬误路径。当部分的观点已经指向整车在极端状态下冗余安全机制是否合理的情况下,一些人则将观点简化为「门把手坏了跟车辆安全没有关系」,而进行非逻辑对称的反驳;
- 倒果为因路径。车辆自燃是因为违规驾驶导致的,这两者并没有直接的因果关系,但如果放在这件事情之下,则可以用驾驶员瑕疵覆盖车辆起火的结果瑕疵,以至于推广至「驾驶员被烧死」与「汽车质量」无关;
回到最开始的问题,这是一个复杂的系统性问题,并不会因为其中一个独立模块「占比更高」而完全忽视甚至覆盖其他模块在逻辑链条里的作用。但是为了简单地引发舆论热度、甚至是煽动情绪对立,只采用其中一个模块进行分析,再得出完全覆盖系统性问题的结论,这件事情本身是非蠢即坏的。
当然,受害者有罪论和谁弱谁有理这样看似对立的逻辑,本身也是共生的,看到「装逼的有钱人」撞车后被活活烧死,和看到一个身价上百亿的企业家在舆论漩涡中被撕碎的本质是一模一样的。
ChatGPT 的分析能力是偏向系统性的,且这种系统性的逻辑是远超越人类的。我在前几天的博客里也提到,AI 的核心能力在于通过神经网络进行关联性分析,而人类大部分时候会更加依赖于线性惯性思维。如果跳过关联性部分,仅仅只是对系统性的逻辑结构进行分析,人们往往会依赖他们「更在意」的部分,而 AI 也足够「狡猾」,能够给出人们最希望看到的那个答案,以至于这种系统性的问题最终会被拆解到更符合当事人个人认知体系下的「最佳答案」。
这不是 AI 在欺骗人类,而是人类的认知层级决定了他们希望看到怎样的答案,而系统性逻辑最大的问题是很难有一个明确的抓手和答案,这样很难形成观点,也无法引发流量和煽动情绪。
系统性分析的最大问题不是不对,而是它太「圆滑」,以至于缺乏明确攻击点和传播路径。
- 无法形成「观点」:因为系统性结构意味着「没有一个人或因素能单独负责」。
- 无法制造「对立」:因为系统性问题天然是多元因素协同的,无从敌视。
- 无法煽动「情绪」:因为系统性问题没有戏剧性转折或阴谋式叙事,而是缓慢演化。
- 无法产生「流量」:因为公众无法快速选择「站队」,也不会被单一结论引爆。
举个例子,在金融市场里,价格其实是最终结果,而不是原因。即市场波动、人们进场出场的行为,最终导致了显现出的价格结果。但是很多人还是会以这个结果作为原因去理解金融市场,它在跌那就是入场的好机会,但是如果是我手持股票它还在跌,那在我的认知里就变成了它在「技术性调整」。
人类想要模仿 AI 的理性和逻辑不是不行,只是人们会更加偏向某个能够符合自己认知水平的结论,否则最终答案不是标准的,甚至是没有答案的。
所以,翻车的并不是 ChatGPT,仍然还是人类的认知水平。
值得自我反驳的观点:
- 系统分析是否存在价值?事故处理、司法鉴定、公众讨论需要的是明确「结果」而非「哲学辨析」;
- AI 的系统性并非「强」,而是一种系统伪装;
- 系统性逻辑的实际意义是什么?
