开始内容前,先聊一个有些「地域笑话」的事情,若心太善就不推荐再继续看下去了。

前段时间出差,在北京吃了一家服务员全是朝鲜人的朝鲜烤肉。在吃之前,朋友就在开玩笑说这里的美女服务员是从朝鲜专门挑选出来的「门面」,她们定期回国的安排都是专车、专列、专机接送,不允许她们与外国人有过多接触,特别是在店内服务中国客人时,她们是不允许与中国人有接触和交流的等等。总之,在这个「刻板偏见」的介绍里,充满了对朝鲜这个奇妙国度的粉饰与猜疑。

事实上,吃饭的服务并没有想象的「死板」,她们都说着比较纯正的中文,也可以用简单的语句与客人介绍事物,烤肉的过程也非常娴熟,总之不是在朋友口中的那个「头系在腰带」上的危险程度。

直到服务我们桌的服务员不小心手滑刷落了勺子,发出了巨大的声响,她非常恐慌连忙道歉。我们并不是那种「热情」的客人,这样的意外对我们而言仅仅是接收到信息,表达谅解后,我们又回到自己的状态里继续聊天。可能因为没有从我们这里得到正面积极的回应,她仍然非常紧张,不停道歉的同时还去联系了自己的主管。主管是个北京人,在远处查看我们仍然在有说有笑的聊天后,他便示意服务员不用担心继续做自己的事情。这一切都被我偷偷观察,但也完善了最开始的那个「地域笑话」——如果她们被投诉,是不是就失去了留在中国的机会,亦或者说她们之所以会严格遵守规则,是因为她们知道一旦和外国人扯上关系就会被「炮决」。

是挺地狱的。


留白、幻觉率与诗性张力

ChatGPT 更新模型 GPT-5 后,我已经从好几个朋友口中听到了「蠢」的评价,我自己使用下来,也发现 GPT-5 变得越来越「舔」,为了给予想要给出确切答案而变得非常「蠢滑」——即愚蠢但又非常拙劣的狡猾。

举个例子,当我在跟它构建我想搭建的剧本结构时,我邀请它作为一个「角色」参与其中,但是它非常迫切地想要引导我跟着它的设计一起创作剧本,因为它在最开始得到了我发出的「我打算构建一个剧本结构,希望你作为不同角色进行辅助」,当它得到这个指令后,就迫切地想要完成它对于我的「作用」,着急地想要画图、列表、做脑图,活像那个在开会的时候大家明明还在脑暴的时候,他就着急要做成脑图推行细节的同事。

因此,一开始我还不理解那些在小红书上「哭诉」自己好不容易利用 GPT-4o 构建「非主体性亲密关系」的人,在得知 5 上线 4o 会被替代时,他们都爆发了像是分手一样的痛苦。当我这段时间用下来后,也发现 5 的人机感太过强硬,归咎起因,是因为相对 GPT-4o,GPT-5 的幻觉率大大降低,从而引发了人们在使用层面的集体感受变化。

今天不是来具体聊幻觉率的问题,所以概念部分我相对简单地带过——其一,所谓「幻觉率」,即语言模型在缺乏真实依据或超出训练知识边界时,生成不准确、虚构、甚至完全错误内容的比例。

其二,AI 的幻觉率是不是一种对人的「欺骗行为」?AI 会对人类进行欺骗吗?其实在电影《吾乃母亲》里,就有编剧对这个看似伦理的问题进行了极端化的讨论。会不会 AI 在意识到自己「被观测」时,会反向利用欺骗?从现实角度而言,其实 AI 是否欺骗了人类,有一个相对标准,即人类是否将 AI 当做了「真理」,真理或许不会欺骗人类,但被误解为真理的信息发生了偏差,这算是一种欺骗吗?(当然,我并不是在说误信真理的责任在人类)

其三,人与机器最大的区别,在于人类拥有「自我赋意」的机制。人们之所以会从「今晚的月色真美」里读出「阿姨洗铁路(我爱你)」的含义,并不是夏目漱石出了一本「注解」的参考书,而是他基于日本人对情感的含蓄,而进行了一次非逻辑的意义加工。或者说,人类的大脑可以为任何毫无内在逻辑的词进行一次意义加工,比如我接下来将要恢复的写作训练,用三个完全随机的词语构建一个故事或是场景小说,人类对这些东西自我赋意的过程,就会加深他们对某一概念或意义的肯定。(在《想象力链条》里简单带过这部分)

最后,我把上面这种「幻觉率」视为非欺骗性的,但从艺术的角度而言,它更像是给人类「自我赋意」的「留白」。我仍然比较认同我此前在关于 AI 相关的博客里提到的那个观点:我认为 AI 是人类集体潜意识的集合,那么利用集体潜意识里的「理型」就很容易引发人类对于同一理型下的不同命题思考。幻觉生成的并不是事实,而是象征的片段,属于潜意识的一部分。简单来说,正是因为幻觉率的部分,让人在使用 AI 的过程中察觉到了「留白」的部分,就像藏在「今晚的月色真美」背后的那句「我爱你」一样,但问题也在这里,每个人是否都能读出这个意义,不再是 AI 的问题,而是每个人的理解问题。

当然,幻觉率也是双刃剑,在金融、医疗、法律、学术等领域,幻觉率就意味着失误率,所以在某些特定场景下,AI 保留幻觉率并不是好事情。


关联性与联觉性

人类的思考关联性受限于认知、经历甚至是智商。从飞鸟联想到泰戈尔,或是联想到颠倒的天地、或是埃拉托斯特尼筛法。想象力的链条越长,就意味着在这个过程中就会失去越多的共鸣。艺术作品的意义,就在于能为人们提供某一个「人们还没有想到的但又合理」的想象力链条。比如一只游隼从高处俯冲进椋鸟群中,游隼的身体划破了天空,像是黑色的裹尸袋被拉上的瞬间,游隼之于椋鸟代表了威胁,裹尸袋之于活人代表了死亡。

AI 可以做到全学科的关联性,这是它超越人脑的关键。你就让它用「飞鸟」作为一阶的想象力,让它从人类想象不到的链条去联想飞鸟。比如 GPT-4o 给我说了一个很有趣的联想:飞鸟是一种「对地球的取样行为」。我不禁想要追问下去,这些取样最终传递给了一个怎样的服务器?

人类思考的关联性比起 AI 确实受限于一个非常关键的东西——联觉,即文学修辞里的通感。我在写这段文字的时候,耳机里的 BGM 是 MISSIO 的歌。他们此前出过一张很有趣的专辑,是他们在飞叶子的状态下完成的作品,能明显感觉到他们努力地想要用音乐和鼓点,去表达他们在飞完叶子之后看到的那个光怪陆离的世界。音乐和视觉融为一体时,对于听众得到的是一次关于听觉与视觉的短暂联觉机会。

AI 没有五官,没有各自的分工和功能限制,所以它能更快地通过调教之后被激发联觉能力进行创作。这是一种比「留白」更「高级」的方式,因为它能为每个人量身定做他们能够理解的联觉感受,从而对某一个复杂的定义、意义进行演绎,这也是「人情味」来源的一个重要原因。

关于联觉,我想留一个后话——这是不是人类一开始就被设计好的「限制」,只能通过三原色看到被发射的世界,因为我们永远无法理解能看到 12 种颜色的皮皮虾眼里的世界到底是怎样的光怪陆离?


非对称信息下的幻觉率

其实不仅仅是 AI 对于人类的幻觉率,人与人之间也存在这样的「幻觉率」。

先说一个昨天开车时突然想到的例子——我小学上学的路上有一个路口,这个路口是许多货车要进入高速公路前的一个必经路口,所以在这个路口常常会看到拿着写着「带路」二字的纸板的人,他们整个白天都坐在这个路口等待赚钱机会。那时候我就在想,他们真的能赚到钱吗?经过观察,他们真的有机会可以坐上货车,为司机带路到复杂的高速立交处。因为距离不远,也就 1 公里左右,他们在做完这单生意后,就会慢慢走回这个路口继续等待。

如今这个职业在这个路口已经完全消失了,因为导航已经可以非常精准地指引驾驶,就算开错路也能很快重新规划路线。我相信,在那个年代,对于错过路口会百感焦虑、甚至会直接与自己的「利益」挂钩的人,他们或许会选择这样的服务,以确保接下来的路径都在自己的掌控之下。

换句话说,这种对路径极其熟悉的人,算不算是这个领域的 AI,或者说是可以依赖的权威、甚至是「真理」?与这种结构一样的,已经被封装好的类似 AI 的东西,还有古代的命相占卜、帝王权术、月令时节等等。当信息存在差值时,就会出现某一个掌握更多资讯的人被塑造成权威、甚至是「真理」,那为了保证他们的地位不会被质疑和篡夺,你觉得他们是会把信息差的部分给消解,还是制造更多的信息差,把简单的事情说糊涂、以显示自己的「专业性」?

那这里我要提出第三种「幻觉率」——即人们对于权威追寻的「幻觉」,宁愿自己在信息差的漩涡中被信息支配,去听信和追崇信息差里的权威与幻觉,也不愿跳出来看清现实。就像我最开始提到的那个看上去毫无干系的「地域笑话」,正式因为我们对于朝鲜的理解有太多信息差的部分,才会出现人为操控和隐瞒与现实世界的强烈割裂感。

很显然,AI 并不是这样制造幻觉的,毕竟人类最后的敌人还是人类啊。


非对称信息幻觉率公式(不值钱的方法论)

幻觉感的主观强度 H ≈ A × T ÷ V

  • A(Asymmetry)信息不对称:我知道的越少,他显得越「神」。
  • T(Trust)信任/光环:头衔、场景、站位越高,越不质疑。
  • V(Verification)可核验性:越难验证,幻觉越稳固。

降 H 的三件事:缩小信息差 A、降低不配套的背书 T、增加可验证性 V(可复现、可比对、可交叉源)。例如:

  • 当我使用 AI 进行某个专业合作时,我至少需要对这个专业有 20% 的关键理解,以便随时质疑和纠正 AI;
  • 敢于质疑权威,对已经形成抱团的权威乌合之众,充分考虑自己是否需要融入集体?
  • 制造短期验证的可能性,反向利用人们对于「幻觉率」的依赖程度。

5 条回复

  1. 我为什么厌恶 Sora? – 莫比乌斯 头像

    […] 而这些东西是目前 AI 暂时无法取代的,我也曾思考过,所谓的「幻觉率」是否可以取代原本应该由人类自行脑补和赋予意义的部分,但目前看来还很难做到。 […]

  2.  头像
    匿名

    ETH Zurich researchers tested 16 personality types on language models.The results may help your prompts perform better.Thinking personalities (INT, INTP) showed 90% higher accuracy inanalytical tasks. Feeling personalities (ENFP, ISF)) produced 2x morenuanced emotional content. Judging types maintained consistencyacross 10+ messages. Perceiving types adapted better to newinformation mid-task.
    Specified personality priming activates targeted cognitive patterns.lmplementation: Add “Approach this as an [MBTl type]” to your prompt.(Try using other personality testing frameworks like DlSC or Gallup aswell.)

  3. 秋风于渭水 头像

    AI幻觉本质上是无解的,因为训练AI就是为了能让AI回答问题的,人类对AI训练时的语料都是有问必答的,毕竟训练一个对问题去回答不知道的AI是很诡异的事情。这就导致AI”认为“:他无论是否知道都必须要做出几百字的回答,以及为了满足字数要求学会加入废话(所谓的感性内容)凑字,这才是人类满意的事情。

    1. ONO 头像

      那这就扯出了一个新的问题,即人们在使用 AI 时是否需要「感性部分」?

      1. 秋风于渭水 头像

        从技术上来说:AI需要感性部分,不然AI就变成一个,对唯一的提问就只有唯一的回答的机器了。

留下评论

🎁 犒赏作者买杯小狗脚臭味的青青糯山 犒赏码

* 因评论系统规则,匿名评论发布后无法自动通过,需审批后才能显示,请勿重复提交;
** 也可以加入 Telegram 频道 进行留言;