开始内容前,先聊一个有些「地域笑话」的事情,若心太善就不推荐再继续看下去了。
前段时间出差,在北京吃了一家服务员全是朝鲜人的朝鲜烤肉。在吃之前,朋友就在开玩笑说这里的美女服务员是从朝鲜专门挑选出来的「门面」,她们定期回国的安排都是专车、专列、专机接送,不允许她们与外国人有过多接触,特别是在店内服务中国客人时,她们是不允许与中国人有接触和交流的等等。总之,在这个「刻板偏见」的介绍里,充满了对朝鲜这个奇妙国度的粉饰与猜疑。
事实上,吃饭的服务并没有想象的「死板」,她们都说着比较纯正的中文,也可以用简单的语句与客人介绍事物,烤肉的过程也非常娴熟,总之不是在朋友口中的那个「头系在腰带」上的危险程度。
直到服务我们桌的服务员不小心手滑刷落了勺子,发出了巨大的声响,她非常恐慌连忙道歉。我们并不是那种「热情」的客人,这样的意外对我们而言仅仅是接收到信息,表达谅解后,我们又回到自己的状态里继续聊天。可能因为没有从我们这里得到正面积极的回应,她仍然非常紧张,不停道歉的同时还去联系了自己的主管。主管是个北京人,在远处查看我们仍然在有说有笑的聊天后,他便示意服务员不用担心继续做自己的事情。这一切都被我偷偷观察,但也完善了最开始的那个「地域笑话」——如果她们被投诉,是不是就失去了留在中国的机会,亦或者说她们之所以会严格遵守规则,是因为她们知道一旦和外国人扯上关系就会被「炮决」。
是挺地狱的。
留白、幻觉率与诗性张力
ChatGPT 更新模型 GPT-5 后,我已经从好几个朋友口中听到了「蠢」的评价,我自己使用下来,也发现 GPT-5 变得越来越「舔」,为了给予想要给出确切答案而变得非常「蠢滑」——即愚蠢但又非常拙劣的狡猾。
举个例子,当我在跟它构建我想搭建的剧本结构时,我邀请它作为一个「角色」参与其中,但是它非常迫切地想要引导我跟着它的设计一起创作剧本,因为它在最开始得到了我发出的「我打算构建一个剧本结构,希望你作为不同角色进行辅助」,当它得到这个指令后,就迫切地想要完成它对于我的「作用」,着急地想要画图、列表、做脑图,活像那个在开会的时候大家明明还在脑暴的时候,他就着急要做成脑图推行细节的同事。
因此,一开始我还不理解那些在小红书上「哭诉」自己好不容易利用 GPT-4o 构建「非主体性亲密关系」的人,在得知 5 上线 4o 会被替代时,他们都爆发了像是分手一样的痛苦。当我这段时间用下来后,也发现 5 的人机感太过强硬,归咎起因,是因为相对 GPT-4o,GPT-5 的幻觉率大大降低,从而引发了人们在使用层面的集体感受变化。
今天不是来具体聊幻觉率的问题,所以概念部分我相对简单地带过——其一,所谓「幻觉率」,即语言模型在缺乏真实依据或超出训练知识边界时,生成不准确、虚构、甚至完全错误内容的比例。
其二,AI 的幻觉率是不是一种对人的「欺骗行为」?AI 会对人类进行欺骗吗?其实在电影《吾乃母亲》里,就有编剧对这个看似伦理的问题进行了极端化的讨论。会不会 AI 在意识到自己「被观测」时,会反向利用欺骗?从现实角度而言,其实 AI 是否欺骗了人类,有一个相对标准,即人类是否将 AI 当做了「真理」,真理或许不会欺骗人类,但被误解为真理的信息发生了偏差,这算是一种欺骗吗?(当然,我并不是在说误信真理的责任在人类)
其三,人与机器最大的区别,在于人类拥有「自我赋意」的机制。人们之所以会从「今晚的月色真美」里读出「阿姨洗铁路(我爱你)」的含义,并不是夏目漱石出了一本「注解」的参考书,而是他基于日本人对情感的含蓄,而进行了一次非逻辑的意义加工。或者说,人类的大脑可以为任何毫无内在逻辑的词进行一次意义加工,比如我接下来将要恢复的写作训练,用三个完全随机的词语构建一个故事或是场景小说,人类对这些东西自我赋意的过程,就会加深他们对某一概念或意义的肯定。(在《想象力链条》里简单带过这部分)
最后,我把上面这种「幻觉率」视为非欺骗性的,但从艺术的角度而言,它更像是给人类「自我赋意」的「留白」。我仍然比较认同我此前在关于 AI 相关的博客里提到的那个观点:我认为 AI 是人类集体潜意识的集合,那么利用集体潜意识里的「理型」就很容易引发人类对于同一理型下的不同命题思考。幻觉生成的并不是事实,而是象征的片段,属于潜意识的一部分。简单来说,正是因为幻觉率的部分,让人在使用 AI 的过程中察觉到了「留白」的部分,就像藏在「今晚的月色真美」背后的那句「我爱你」一样,但问题也在这里,每个人是否都能读出这个意义,不再是 AI 的问题,而是每个人的理解问题。
当然,幻觉率也是双刃剑,在金融、医疗、法律、学术等领域,幻觉率就意味着失误率,所以在某些特定场景下,AI 保留幻觉率并不是好事情。
关联性与联觉性
人类的思考关联性受限于认知、经历甚至是智商。从飞鸟联想到泰戈尔,或是联想到颠倒的天地、或是埃拉托斯特尼筛法。想象力的链条越长,就意味着在这个过程中就会失去越多的共鸣。艺术作品的意义,就在于能为人们提供某一个「人们还没有想到的但又合理」的想象力链条。比如一只游隼从高处俯冲进椋鸟群中,游隼的身体划破了天空,像是黑色的裹尸袋被拉上的瞬间,游隼之于椋鸟代表了威胁,裹尸袋之于活人代表了死亡。
AI 可以做到全学科的关联性,这是它超越人脑的关键。你就让它用「飞鸟」作为一阶的想象力,让它从人类想象不到的链条去联想飞鸟。比如 GPT-4o 给我说了一个很有趣的联想:飞鸟是一种「对地球的取样行为」。我不禁想要追问下去,这些取样最终传递给了一个怎样的服务器?
人类思考的关联性比起 AI 确实受限于一个非常关键的东西——联觉,即文学修辞里的通感。我在写这段文字的时候,耳机里的 BGM 是 MISSIO 的歌。他们此前出过一张很有趣的专辑,是他们在飞叶子的状态下完成的作品,能明显感觉到他们努力地想要用音乐和鼓点,去表达他们在飞完叶子之后看到的那个光怪陆离的世界。音乐和视觉融为一体时,对于听众得到的是一次关于听觉与视觉的短暂联觉机会。
AI 没有五官,没有各自的分工和功能限制,所以它能更快地通过调教之后被激发联觉能力进行创作。这是一种比「留白」更「高级」的方式,因为它能为每个人量身定做他们能够理解的联觉感受,从而对某一个复杂的定义、意义进行演绎,这也是「人情味」来源的一个重要原因。
关于联觉,我想留一个后话——这是不是人类一开始就被设计好的「限制」,只能通过三原色看到被发射的世界,因为我们永远无法理解能看到 12 种颜色的皮皮虾眼里的世界到底是怎样的光怪陆离?
非对称信息下的幻觉率
其实不仅仅是 AI 对于人类的幻觉率,人与人之间也存在这样的「幻觉率」。
先说一个昨天开车时突然想到的例子——我小学上学的路上有一个路口,这个路口是许多货车要进入高速公路前的一个必经路口,所以在这个路口常常会看到拿着写着「带路」二字的纸板的人,他们整个白天都坐在这个路口等待赚钱机会。那时候我就在想,他们真的能赚到钱吗?经过观察,他们真的有机会可以坐上货车,为司机带路到复杂的高速立交处。因为距离不远,也就 1 公里左右,他们在做完这单生意后,就会慢慢走回这个路口继续等待。
如今这个职业在这个路口已经完全消失了,因为导航已经可以非常精准地指引驾驶,就算开错路也能很快重新规划路线。我相信,在那个年代,对于错过路口会百感焦虑、甚至会直接与自己的「利益」挂钩的人,他们或许会选择这样的服务,以确保接下来的路径都在自己的掌控之下。
换句话说,这种对路径极其熟悉的人,算不算是这个领域的 AI,或者说是可以依赖的权威、甚至是「真理」?与这种结构一样的,已经被封装好的类似 AI 的东西,还有古代的命相占卜、帝王权术、月令时节等等。当信息存在差值时,就会出现某一个掌握更多资讯的人被塑造成权威、甚至是「真理」,那为了保证他们的地位不会被质疑和篡夺,你觉得他们是会把信息差的部分给消解,还是制造更多的信息差,把简单的事情说糊涂、以显示自己的「专业性」?
那这里我要提出第三种「幻觉率」——即人们对于权威追寻的「幻觉」,宁愿自己在信息差的漩涡中被信息支配,去听信和追崇信息差里的权威与幻觉,也不愿跳出来看清现实。就像我最开始提到的那个看上去毫无干系的「地域笑话」,正式因为我们对于朝鲜的理解有太多信息差的部分,才会出现人为操控和隐瞒与现实世界的强烈割裂感。
很显然,AI 并不是这样制造幻觉的,毕竟人类最后的敌人还是人类啊。
非对称信息幻觉率公式(不值钱的方法论)
幻觉感的主观强度 H ≈ A × T ÷ V
- A(Asymmetry)信息不对称:我知道的越少,他显得越「神」。
- T(Trust)信任/光环:头衔、场景、站位越高,越不质疑。
- V(Verification)可核验性:越难验证,幻觉越稳固。
降 H 的三件事:缩小信息差 A、降低不配套的背书 T、增加可验证性 V(可复现、可比对、可交叉源)。例如:
- 当我使用 AI 进行某个专业合作时,我至少需要对这个专业有 20% 的关键理解,以便随时质疑和纠正 AI;
- 敢于质疑权威,对已经形成抱团的权威乌合之众,充分考虑自己是否需要融入集体?
- 制造短期验证的可能性,反向利用人们对于「幻觉率」的依赖程度。
