我在作为信息接收者时,是以保持逻辑的方式在接收信息,所以很容易分辨出人们在自己表达的观点里是否掺杂过 AI 辅助的逻辑。其实这一点很好分辨,因为一个人的逻辑在时间线性下是可以看出变化的,就算是自我否定,人们的逻辑也是延续性的。

比如一个人一开始喜欢吃白饭,后面他突然表达了吃白饭会死人的观点。这中间如果没有自我的逻辑连续,就会出现断层。所以人们在表达一个区别于以往观点的内容时,仍然会优先为自己过去的选择进行「找补」,这是出于人性的本能,也是一种自我保护。

如果长期依赖 AI 进行逻辑构建,中间会缺少联系性,所以如果你比较依赖 AI 提供观点,我的建议是建立一个项目,里面先汇总你的三观问题。三观列表我未来也会呈现在博客里,这样可以约束 AI 在模仿你的逻辑进行思考时,被规范在一个「人类逻辑」框架里。

当然,这是后话。


之所以标题说是翻车实录,是因为看到一个人在对小米 SU7 撞击起火车门无法打开的新闻的评价,我必须承认,这个人很有「逻辑」,这个逻辑的底层几乎就是我让 ChatGPT 帮我解读新闻的逻辑。GPT 几乎是在客观视角回答了它对这场事故的看法,即驾驶行为失误 + 高速失控 + 碰撞导致结构破坏 + 电控部件受损(可能含电子锁断电/失效)的综合结果,而不是单一「设计必然缺陷」。

这件事存在两层「瑕疵性」,即驾驶员饮酒或醉酒驾驶的瑕疵性,导致了车辆交通违法;以及产品设计的「瑕疵性」(目前被讨论得最广泛的),即车门设计是否采用纯电子把手,而未具备机械冗余门把手,或实际具备但事故发生后导致功能无法正常使用。于是网络上流传了几种逻辑路径:

  • 受害者有罪论路径。这也是中国媒体和二元对立思维比较习惯性的思考路径,即受害人的瑕疵可以覆盖产品设计瑕疵,甚至涵盖整个事故的最终责任。他既然是一个饮酒驾驶的人,那这就是他应该付出的代价,跟车辆设计没有关系;
  • 比较路径。小米汽车在撞击后车门变形,你去开一辆油车这么快的速度撞击车辆也会变形打不开。即诉诸逻辑谬误,AB 不同,只要证明 A 是错的,那么 B 就是对的
  • 轻化概率路径。小米汽车发生事故后,以偏概全认为其质量存在严重问题。特别是在今年已经陆续发生铜陵三女性车祸身亡、将受调查召回隐含为免费 OTA 升级、前段时间的坠海和这几天的天府大道爆燃事件等,虽然已经发生多起有关小米的公关事故,但仍然不能轻易地将事故与质量问题进行结果对等;
  • 稻草人谬误路径。当部分的观点已经指向整车在极端状态下冗余安全机制是否合理的情况下,一些人则将观点简化为「门把手坏了跟车辆安全没有关系」,而进行非逻辑对称的反驳
  • 倒果为因路径。车辆自燃是因为违规驾驶导致的,这两者并没有直接的因果关系,但如果放在这件事情之下,则可以用驾驶员瑕疵覆盖车辆起火的结果瑕疵,以至于推广至「驾驶员被烧死」与「汽车质量」无关

回到最开始的问题,这是一个复杂的系统性问题,并不会因为其中一个独立模块「占比更高」而完全忽视甚至覆盖其他模块在逻辑链条里的作用。但是为了简单地引发舆论热度、甚至是煽动情绪对立,只采用其中一个模块进行分析,再得出完全覆盖系统性问题的结论,这件事情本身是非蠢即坏的。

当然,受害者有罪论和谁弱谁有理这样看似对立的逻辑,本身也是共生的,看到「装逼的有钱人」撞车后被活活烧死,和看到一个身价上百亿的企业家在舆论漩涡中被撕碎的本质是一模一样的。


ChatGPT 的分析能力是偏向系统性的,且这种系统性的逻辑是远超越人类的。我在前几天的博客里也提到,AI 的核心能力在于通过神经网络进行关联性分析,而人类大部分时候会更加依赖于线性惯性思维。如果跳过关联性部分,仅仅只是对系统性的逻辑结构进行分析,人们往往会依赖他们「更在意」的部分,而 AI 也足够「狡猾」,能够给出人们最希望看到的那个答案,以至于这种系统性的问题最终会被拆解到更符合当事人个人认知体系下的「最佳答案」。

这不是 AI 在欺骗人类,而是人类的认知层级决定了他们希望看到怎样的答案,而系统性逻辑最大的问题是很难有一个明确的抓手和答案,这样很难形成观点,也无法引发流量和煽动情绪。

系统性分析的最大问题不是不对,而是它太「圆滑」,以至于缺乏明确攻击点和传播路径。

  • 无法形成「观点」:因为系统性结构意味着「没有一个人或因素能单独负责」。
  • 无法制造「对立」:因为系统性问题天然是多元因素协同的,无从敌视。
  • 无法煽动「情绪」:因为系统性问题没有戏剧性转折或阴谋式叙事,而是缓慢演化。
  • 无法产生「流量」:因为公众无法快速选择「站队」,也不会被单一结论引爆。

举个例子,在金融市场里,价格其实是最终结果,而不是原因。即市场波动、人们进场出场的行为,最终导致了显现出的价格结果。但是很多人还是会以这个结果作为原因去理解金融市场,它在跌那就是入场的好机会,但是如果是我手持股票它还在跌,那在我的认知里就变成了它在「技术性调整」。

人类想要模仿 AI 的理性和逻辑不是不行,只是人们会更加偏向某个能够符合自己认知水平的结论,否则最终答案不是标准的,甚至是没有答案的。


所以,翻车的并不是 ChatGPT,仍然还是人类的认知水平。

值得自我反驳的观点:

  • 系统分析是否存在价值?事故处理、司法鉴定、公众讨论需要的是明确「结果」而非「哲学辨析」;
  • AI 的系统性并非「强」,而是一种系统伪装;
  • 系统性逻辑的实际意义是什么?

11 条回复

  1.  头像
    匿名

    提供一个角度:人类的逻辑和思维最终是以利于生存而被演化筛选下来的,我们与AI最大的不同是我们活在现实里活在演化里。

    一个系统性的全面的分析固然正确,但会导致人在行动的时候难以取舍应该先解决什么问题:很多问题的因素对应的优先级和概率并不容易估计。一次行动往往只能先解决一个方面,因此这样的思维方式并不利于在多变的现实环境中生存。

    简单的线性的有偏好的思维反而利于人快速的感觉出主要方面并采取行动。

    1. ONO 头像

      非常同意,毕竟大脑的算力有限,而且多数时候人类是很难摆脱“本能”行事的。

  2. nkmz 头像
    nkmz

    来讲一点我的“拙见”:

    1. 系统分析是否存在价值?

    答案是肯定的。它的重要作用在于多因素关联,可以揭示复杂现象背后的隐性逻辑,大大减少了甩锅和阴谋论的形成条件,但它更适合用在“预防”和“长期”决策中。

    1. AI 的系统性是否只是“伪装”?

    AI 的“系统性”的确有,但我总觉得AI不像是在“回答问题”,而是在“讨好用户”。尤其是在询问看法类问题时,如果我的语句不能客观或均衡,那么AI就会二选一地抓住一点作为基础开始分析。它只是把“可能对的”东西拿出来结合成了回答,而不是真的在思考。

    它知道“这几个事物有关联”,但也仅限于此,不知道“为什么关联”。

    1. 系统性逻辑的实际意义是什么?

    我觉得它在于揭示复杂问题的“突发性”和“脆弱性”,而非提供某个标准答案。和第一点相似,对长期决策和预防是有效的,但在满足短期的情绪需求或决策便利时显得捉襟见肘了。

  3. 秋风于渭水 头像

    比较路径。小米汽车在撞击后车门变形,你去开一辆油车这么快的速度撞击车辆也会变形打不开。即诉诸逻辑谬误。】这个我感觉不太恰当吧,因为核心在于,「油车这么快的速度撞击车辆也会变形打不开」最后的结论是什么你没有明确写出。

    如果他阐述的是:“小米汽车在撞击后车门变形,你去开一辆油车这么快的速度撞击车辆也会(一定/大几率)变形打不开。所以电子门锁没问题“补上类似”小米没问题的结论“这才算完整构成诉诸逻辑谬误。形成了,AB 不同,只要证明 A 是错的,那么 B 就是对的的逻辑

    如果他阐述的是:“小米汽车在撞击后车门变形,你去开一辆油车这么快的速度撞击车辆也会(有几率)变形打不开。所以成都车门打不开的案例无法用来论证电子和机械谁对谁错”,这就不算构成诉诸逻辑谬误的行为。变成了,AB 不同,A无法证伪,B也无法证伪的逻辑。

    1. ONO 头像

      有趣的就是,他们的论点就是:油车高速撞击也会门打不开,你怎么不说?

      然后就像你说,没有结论,但逻辑是证明油车也是“错”的,所以小米们能不能打开这个瑕疵可以被覆盖。

      1. 秋风于渭水 头像

        主要是现在确实没看到证据说明门打不开的原因到底是什么,是门锁打不开(可能电子锁断电/失效)才导致门死活打不开,还是门他就是(可能已经变形到卡住,门锁能打开,但是门打不开)打不开了。目前也没有一个可信的统计数据,对比电子门锁和机械门锁在事故后的开启情况,网上对电子门锁的讨论基本都是停留在虚空画靶和理论推算的层面。所以目前还无法使用门锁设计来批判SU7不安全

        不过无论如何,这种真电子假机械设计形式的门锁,肯定有给人一种下意识的信任感,这多少会影响一点点驾驶人的心态。

        1. 秋风于渭水 头像

          额,漏了一句【不过无论如何,这种真电子假机械设计形式的门锁,配合小米的宣传方式,肯定有给人一种下意识的信任感,这多少会影响一点点驾驶人的心态。】

        2. ONO 头像

          所以这里就引发了一个新的话题,就是这样的企业有没有教育消费者和约束消费者的能力?其实当初小米设定马力上限,要开放的方式是通过「专业考试」,这个设计思路没错,因为年轻人对车的理解如果单纯的停留在速度与激情上面,造成的危机一定是社会级别的。当然这个里面又存在一个分支,就是一个对消费者都不诚实的或是玩手段的企业,到底有没有资格教育和约束消费者?当然,要说约束,有的企业还是蛮成功的,以爱国作为绑架条件。

          1. 秋风于渭水 头像

            「企业有没有教育消费者和约束消费者的能力?」这个我感觉可以拆分成三个维度:有没有必要,有没有权利,有没有能力。

            企业有没有教育消费者和约束消费者的必要?我的观点是教育有必要,不然要说明书干啥(虽然这年月不看说明书直接上手属于常态)工具的不正确使用确实会带来危害,无论是从那个方面(对企业,对消费者,对社会等等角度)来说,企业都有义务去教育和约束消费者。

            企业有没有教育消费者和约束消费者的权利?我的观点是需要度让部分权利,但需要控制企业权利的边界。企业需要有一定管的权利,但不能给企业啥都管的权利,这需要一个制度设计。

            企业有没有教育消费者和约束消费者的能力?企业是否真的有能力,管到消费者?就比如开车必须系安全带,智驾必须驾驶人保持在随时能接管的状态,现实告诉我们了,如果只是企业本身的能力,根本没能力管,破解限制的小工具那真是一抓一大把。

  4. 秋风于渭水 头像

    啊哈,这个事件讨论很多嘛,最近我遇到了一个人。针对成都事件,他引用了今年3月安徽铜陵事件后,雷军5月15日在内部会议上的发言视频。

    雷军原话「这场事故的影响如此之大,对我们小米的打击也如此之大。」他修改后变成了「我没想到造车对小米的伤害这么大」删除前半句话(原话是“事故的影响”和“事故对小米的打击(影响)”并列或递进的存在,删了之后就变成,只重视“事故对小米的打击(影响)”的感觉),然后将更加中性的“打击”换成“伤害”(用“伤害”,带来了小米是被动受害和抱怨死者的意味)

    然后他自己为雷军说了一句心里话“就差直说是女生把自己烧成碳来讹小米。”

    最后得出结论:“人命在这些人眼里如何,可见一斑。”

    一共3句话,修改论据细节,构建有利于自己结论的论据,通过有偏差的虚假的叙事来煽动他人情绪。最后得出一个他认为正确的结论。

    他的行为和逻辑就完全满足了你的几个提问:

    • 形成了「观点」:小米(雷军)根本不在乎安全,不在乎消费者死活
    • 制造了「对立」:建立“我们”(善良的、重视人命的)与“他们”(冷血的、唯利是图的)的对立。
    • 煽动了「情绪」:“把自己烧成碳来讹小米”、“人命在这些人眼里如何”这话简直太能煽动同情心了,能引发强烈的道德反感。
    • 产生了「流量」:讨论瞬间歪楼,热度急速上升,好久没见这么多人讨论了

    直接跳出你前边说的“几种逻辑路径”,很多时候,和网友的讨论更像是这样的情况,对方不讲逻辑只和你玩情绪对立煽动手段。

    1. ONO 头像

      直接煽动情绪的,其实都是认知体系里面最低维的部分,诉诸阴谋论。

匿名 发表评论 取消回复

🎁 犒赏作者买杯小狗脚臭味的青青糯山 犒赏码

* 因评论系统规则,匿名评论发布后无法自动通过,需审批后才能显示,请勿重复提交;
** 也可以加入 Telegram 频道 进行留言;