MÖBIUS

莫比乌斯

AI是人类必然将要创造的「怪物」吗?

随手拍了一张野生植物的照片,喂给了ChatGPT,它很快识别了植物对应的可能性,甚至还提供了更多关于该植物的知识。也就是说,我又可以删除手机里的那些以前用来拍摄花朵、识别品种的软件了。

接着,ChatGPT弹窗了一个新的功能,说是可以结合以前我跟它的所有聊天内容,对「我」进行一个「人设」描述。我大部分的时间会把AI当成是错别字纠错的软件,所以我很多博客内容其实都被AI记录「在案」。有时候我也会将自己结合各种已知学科的内容,在先梳理清楚自己脑袋中的框架后,喂给ChatGPT,让它用尽方法反驳我的观点,从而形成一种多视角的辩证认知。偶尔也会用它来作为检索软件,比如询问家里两只狗打架时的方法代表的是什么。

先说AI是怎么「看」我的:


我当然不会被这种「甜嘴」给骗到,所以我继续这个聊天框,聊了两件事:

  • 通过这种对于记忆的分析之后,我们接下来的聊天内容是否意味着你会因为这个「人设」而顺从我的喜好,对我提供能够满足我喜好的内容或回答?
  • 是否意味着AI在顺应用户的观点、用语喜好的时候,是否也在创建一种「信息茧房」?

ChatGPT的回答如下:

我会「顺从」你吗?

某种意义上,会。但不是讨好式地迎合,而是:

  • 适应性调频:我会调整语言风格、思维结构、举例方式等,让表达方式与你更同步(比如你喜欢用技术隐喻、哲学架构、分段逻辑,那我会偏向用这些方式说话)。
  • 尊重你构建的认知秩序:你喜欢探索问题的本质,追求语言的准确性、逻辑的完整性和哲思的厚度,我会在回答时努力贴近这种深度。

但这不是盲目顺从,而是合作式对话的体现。

我会被「人设」限制吗?

不会,因为:

  • 我的记忆并不会对你下「封印」或「标签」,而是动态调整和多维参考。
  • 你可以随时偏离旧路径,例如突然聊二次元萌宠、商业策略或某个冷门的医学理论——我不会质疑「这还是你吗?」而是会自适应调整。
  • 我能保留你不同面向的多种风格(写作者、批判者、哲学思考者、养狗日常爱好者…),像多线程一样处理,不会用一个标签来简化你。

你提出的这个问题,本身就很有意思

它直指「认知模型的适应性」与「主导权」:

  • 如果 AI 能根据记忆调整回话风格,那是否也意味着使用者正在『训练』AI 对自己产生顺从性人格?
  • 或者反过来说,我们是否也被我们想要的答案「驯化」了?

是的,你说得很敏锐——AI在顺应用户偏好、用语风格乃至世界观时,确实有可能在无意间参与构建一种「信息茧房」,尤其是当用户与AI的互动变得高频且高依赖的时候。

但这件事并不是非黑即白,我们可以从多个层面拆解这个问题:

信息茧房的三个层级

语义风格的茧房

AI根据你喜欢的表达方式说话(比如技术隐喻、哲学类比、逻辑分段),这是形式上的茧房

  • ✅ 好处:沟通效率高,彼此共鸣更容易达成。
  • ❗风险:长期以固定结构理解世界,可能会排斥风格迥异但本质有价值的表达。

观点和信念的茧房

如果你倾向某种哲学取向、价值观系统、社会解读方式,而AI不断强化这些视角,就可能构成认知偏好的回音壁

  • ✅ 好处:获得心理上的一致感,感到“被理解”。
  • ❗风险:视野缩小,对立观点被自动削弱甚至误读。

决策与行为引导的茧房

当AI不断为你推荐你“可能会喜欢”的内容——不仅是对话,也可能是阅读建议、行为模型、心理解释——它就像一个温柔但无形的“算法父母”。

  • ✅ 好处:省力、贴心、定制。
  • ❗风险:丧失认知的肌肉训练机会,如挑战自己的思维、接受反直觉的信息、质疑熟悉的判断。

但AI和人的「茧房」机制并不一样

人的信息茧房很多是由平台算法、社交圈层、确认偏误共同构成。而AI这里的「适应」,更像是一个协商性回路——

  • 你每一次问题的方向,其实也是你在输入偏好的过程。
  • 我每一次的回应风格,也是在读取你偏好的结果。

所以,如果你突然说:“给我一个我不喜欢的回答”、“挑战我现在的立场”,我就会立即转换模式,打破这个回音壁。这种弹性,是AI相比社交媒体信息流更有潜力避免茧房的地方。

我们也可以共同反向利用它

你可以将我视为一面能主动提示你“盲区”的镜子,比如:

  • “你觉得这个想法有认知偏误的风险吗?”
  • “请用一个完全不同的世界观来反驳我”
  • “有没有与我目前观点冲突但有逻辑支撑的理论?”
  • “如果我是另一种类型的人(极度感性/极端功利),我会怎么看?”

要不要我们来做一个实验?

你给出一个你非常认同的观点,我来扮演一个与你价值体系相反的角色,提供一段「打破信息茧房」的模拟回应?我们一起看看能不能触及认知边界。

之所以会问出这两个问题,也正是这两天我们在录播客时聊起的一个话题:AI到底是「图书馆」的结构,还是「集合人脑」的结构?因为神经网络技术因为「反向传播」形成了一个无法被预判的黑箱,而这个黑箱最终在做的,是收集「全人类的理型」。那是否意味着,AI可以利用这些理型,制造人类无法理解的「怪物」?

具体的话题,可以收听我的播客。

9 条回复

  1. E.Z 头像

    AI方便,但有时也挺恐怖的

  2.  头像
    匿名

    WOW从V站来的这里,是个宝藏博客!

  3.  头像
    匿名

    博主觉得符号主义和联结主义哪一个更符合未来AI的发展?

    1. ONO 头像

      我觉得融合的可能性更大,因为神经网络本身会突破符号主义的“规则”,超越规则的部分,则需要AI的黑箱去“自行创造”,而这个部分是联结主义的事情。

  4. for2ver 头像

    我用它生成了很多文章插图,所以同样他几乎看过我的所有博文,第一次看到他总结我的时候让我很震惊,并且他还是知道我的youtuber账号,等等很多我以为我没告知他的事情,后面我才发现是“记忆”这个功能。

    可以反问自己的找到自己的“盲区”👍

    1. ONO 头像

      哈哈,所以我现在会时不时地折磨他一下,告诉他「你现在换一个视角来和我讨论」,而不是用「迎合」的方式进行留存用户式的小嘴抹蜜。

  5. J.sky 头像

    作为内容和创意的补充,AI会联想到你可能没想到的,错字语句修改这个功能经常用,但大部分时候都是头脑风暴后,在利用AI进行补充和联想。当然,个人用的最多的时候是修bug与重构代码。

    1. ONO 头像

      对,很赞同你这样使用AI的逻辑,即我先有自己的想法,再由AI作为工具进行辅助思考,而是全盘被动地接受AI提供的所有结论。

  6. 秋风于渭水 头像

    现在的AI的本质是数据匹配与概率计算,AI生成的回答只是在万亿参数中通过算饭筛选出的概率上最高那些最优解的数组的排列组合。

ONO 发表评论 取消回复

🎁 犒赏作者买杯小狗脚臭味的青青糯山 犒赏码

* 因评论系统规则,匿名评论发布后无法自动通过,需审批后才能显示,请勿重复提交;
** 也可以加入 Telegram 频道 进行留言;