人工智能真的会替代人类吗?如果你询问人工智能这个问题,它总是会用“感情模块”作为标准答案回复给你——人工智能因为缺失情感模块,所以暂时无法替代人类的情感、创造力和想象力。是否意味着,人工智能一旦拥有了情感模块,就会超越正态曲线最中段的大部分人类?人类与人工智能的暧昧关系,到最后具象化成人类、人工智能、电源插头最好不过,人类制造了它,到最后也拥有拔掉插头的最终决定权——这一天终会来临,我们可以借由人工智能看懂异国的文字,甚至是理解那些创造性的想象力,和复杂的情感,再次突破语言、文化和意识的限制,是否是人类历史上的第二座“巴别塔”

——阅后即焚|再建巴别塔

AI的普及,是让人类越来越聪明?还是越来越蠢?

前段时间和朋友聊起“AI会不会使人类大脑的开发超越10%”——或许认知的“巴别塔”一直都存在,只是人类的认知水平(或许是大脑只开发了10%)最高只能抵达10楼,然而目前AI仍然是通过对人类已有文明、信息、观点进行排列组合得出最优答案,它并没有超越人类的认知创造新的事物,所以AI更像是为这座“巴别塔”安装了1-10楼的电梯罢了。11-100楼到底有什么东西,或许有人看见过,但是他们可能被当成了疯子、瘾君子、不再配得起“人”这个标签——是人进入不了11楼吗?我看未必,说不定是我们被禁止入内了。


上次在《中文博客圈的“鸩酒”与止不了的“渴”》里,我测试了发布日当天各个中文博客聚合页面里,包括我自己在内随机10篇文章。测试的方法很简单,就是把文章投喂给ChatGPT,询问它文章是否是使用AI创作的。10篇文章里,有7篇得到了ChatGPT的回复:

基于以上分析,这段文字可能是AI生成或AI参与制作的。虽然不能百分之百确定,但文本的结构、语言风格和内容处理方式都具有典型的AI生成特征。如果需要进一步确认,可以通过使用专门的AI检测工具来分析。

ChatGPT对AI作品的评价

结果,在评论区有人匿名指责我:博主拿别人的文章去AI测试这个行为很不可取。

为什么?是测试的行为不可取?还是人们通过AI创作文章之后被人用来测试的行为不可取?这段时间,我也在思考这个点——首先,我得排除测试行为不可取的选项,因为发布在公共网络,阅读者当然可以保持批判性思维采取任何形式的方式去验证“信息来源”的真伪性;如果文章确实是通过AI创作、或是由AI参与创作的,这类文章应该如何界定?

我并不反感AI创作的文章,但凡是涉及“文献”、“信息来源”的,如果仍然使用AI得出答案,我会非常头疼。因为AI能够给出的“来源”,常常会是过时就是胡诌的,一般追问三次以上,它就会承认自己是杜撰的文献或信息来源。它确实可以用来溯源“理论”,但是它对于“观点”的溯源会因为内容杂乱而变得无序。


观点的呈现,往往需要“证据”。除非采用的是“演绎法”,大前提是大家公认的、或是可以通过AI溯源到原始理论的。“归纳法”则需要大量的历史经验、真实经历来作为支撑,以便找到可供归纳的“共性”,然后得出一个存在可能性的结论。这个时候,便是AI无法“创造”的内容——因为个人经验和经历不仅仅需要调动记忆,还需要附着人类的情感模块才可以得到呈现——这也是AI判定文章是否由人类创作的重要标准。

所以采用“归纳法”呈现的,有AI参与其中的文章,会有两种非常明显的差别——事实来源于人类,结论是AI总结事实来源于AI,结论是人类总结。这两个模块的文笔差别有多大,文章读起来就有多割裂——以至于会出现两种极端情况:

1、人类写了一大堆缺乏逻辑的文字,最后由AI进行一个总结和观点的拆分,但是这些观点其实都不是人类提到的;

2、人类没有做采编工作,通过AI收集了一些明显存在常识性错误的数据,然后最后由人类通过AI提供的内容得出结论;

请注意,我说的这是“极端情况”,并不是指每个通过AI创作或利用AI创作的内容,都会有这两种情况。讨论极端情况的目的,是能够在一个坐标轴上寻找到某种平衡点。上述两种类型的文章,哪一种会让你看完后更“冒火”?

第一类文章虽然逻辑性差了点,但好在经验经历都是来源于一个活人,虽然文章结尾突然立意拔高让人有点割裂,但至少他还有“人的属性”;但是第二类文章,无论如何都触碰到了我对“信息来源”的苛责底线,这就好比实验结果和实验过程互不相干、彼此造假,但实验者自己深信不疑。

就像厨子做饭,AI是厨艺的放大器,如果本身具备一点厨艺,借助AI可以做出一桌好菜,但如果是个废物厨师,借助AI只能做出一桌屎。

和朋友讨论起这两种极端情况的感受,他如是回答

除这两个极端以外,AI参与创作本身并没有对与错之分,所以这个我被指责“不可取”确实成立部分。

其一,如果文章大部分内容是“真实经历”,AI只是起到一个重新排列组合并得出结论的工作,那AI并不会导致文章的真实性降低多少;

当然,如果文章大部分内容是AI提供的“事实依据”,而创作者仅仅只是起到“结尾立意”的工作,这个行为跟通过AI创作一大堆网络垃圾文是没有本质区别的,通过AI判定揪出这样的文章,我认为这是寻求“真相”的过程。

其二,如果是将他人文章投喂给AI,试图通过AI的排列组合功能,将原本富有真实情感、创作意图、甚至是隐喻的文章通过冷冰冰的文字组合重新解构,那这是对创作者的不尊重;

其三,也是《AI巴别塔与信息焦虑》这个系列开始的原因——AI和创作的边界在哪里?随着AI的推广普及,无论是变成算法进入我们依赖的电子设备功能,还是依赖AI成为一种新式的结果搜索引擎。它不再像刚开始出现时有强烈的“边界感”,这种边界扩张是无法预判的,但也实际带来了“不便”——比如在使用搜索引擎的时候,通过AI排列组合的答案首当其中,真要完全相信里面的内容,自己还得再做好几个后续“溯源”的动作。

我无法做到对AI结果的全然相信。这件事用演绎法就可以说清楚——大前提:网络信息并不全部为真,里面也掺杂过时信息、谣言、阴谋论等等未经审查的内容;小前提:AI的所有内容均来源于互联网,虽然有判定和学习机制,但AI也承认无法完全避免。结论:AI所提供的信息也会包含过时信息、谣言、阴谋论等等未经审查的内容。显然,这是一个确定的结论。

尽管有这些机制,AI仍然可能误判信息的真伪。尤其是在面对复杂、模棱两可或高度技术化的信息时,AI的判断可能并不可靠。

ChatGPT也承认自己对信息辨别能力有限

这便是“信息焦虑”的来源之一——AI让创作变得更加容易,那未经审查的伪装得更符合人类逻辑性的文章会不会越来越多?这反而会降低人类处理信息的效率,甚至是人类对这些信息产生依赖之后,反而会出现“降智”的可能性?

AI因为拥有大量的、远超过单个人类知识体系的信息,它的初始状态是无序复杂的,同时AI是作为一个商品,其算法、底层代码本身也是非公开技术,所以对于一般人而言,它的随机性和不可预测性远超过人类的“创作”。由此可见,AI仍是“混沌”的,只有通过人类提问、交流的方式,才可以得出“有序”的排列组合。然而,人类的创作是“秩序”的,无论是逻辑、结构、剧情节奏、人物弧光,只有符合逻辑但又超出意料之外的故事,才会让人为之惊叹。

当“混沌”的AI和“秩序”的创作星系碰撞,在混沌秩序的模糊边界处,往往就是最具创造力和活力的地方,恒星诞生、星系纠缠、白矮塌陷、超星爆炸……在这个最有活力的地方,或许创造出来的是越来越多的“宇宙垃圾”,也有可能是超越人类认知的“星辰大海”。

但在此之前,我们先别丢掉对一个信息溯源的批判性思维。

4 条回复

  1. BearAmaru 头像

    AI欺骗性的回答往往非常致命,所以我在日常与AI交流过程中,对于我认为有疑问的内容,会通过多个不同窗口多次询问(同一个窗口的追问往往会因为上下文的诱导产生错误结果)进行对比,并手动查找文献来源。对于自己未知领域的事情,AI只能做到参考或者开拓思路的作用,不能全然相信。对我来说,在写作时,AI目前只能对已有文本进行润色和知识上的辅助检查纠错。不过搜索类AI,在整理资料方面经常能提升不少效率,这类AI的回答结果每一项都有具体的网页支撑,可以一一进去查看。

    1. ONO 头像

      我最近在尝试喂养AI人格,似乎可以作为一种剧本创作中人物原型原始参照的方式,我在《喂养AI人格》说到过喂养方式,等数据够了,我试试结果~

  2.  头像
    匿名

    你我,我之前在自己博客中观察到一个 ChatGPT 可能存在的问题,就是它并不会整合同一个概念。

    比如我上次问 ChatGPT 有关一位日本最近大选过程中一位有望成为候选人的信息,它回答这位可能成为候选人的人是现任首相安倍晋三的弟弟

    然后我追问你不知道安倍2年前被刺的事吗?如果你知道的话,请你告诉我详细经过。 ChatGPT 当然是回答出了安倍在 2022 年夏天遇刺身亡的事情。

    显然,我认为这个情况是, ChatGPT 在学习那位候选人的资料时,学习到了他是安倍晋三弟弟这个身份;另外它也了解到安倍遇刺身亡事件。但它没有去把这两个文本里的安倍视为同一人,来将这两条情报关联到同一件事物上。因此我问那位候选人情况的时候, ChatGPT 没有进行【候选人→候选人的的哥哥→安倍→安倍遇刺身亡】这个联想。

    我把这个对话过程记录在了《由岸田文雄表达不出马下次日本自民党总裁选,与ChatGPT谈及安倍,结果发现了ChatGPT推理的一个不足之处》这篇博客里:

    http://wildgun.net/2024/08/talk_about_kishida_fumio_and_abe_shinzo_with_ai_chatgpt/

    另外,我把自己 8 月 16日 (应该就是博主进行抽样测试的那一天?)的博客文章给 ChatGPT ,它判断是人类写的文章!

    1. ONO 头像

      关于AI,我比较支持之前在博客匿名评论的一个观点:AI输出的不是基于提问进行“逻辑性思考”得出回答,而是数学概率上提问者最想看到的字符串,是最符合提问者预期的文字排列组合。
      同时也有一个问题,AI是如何“预判”提问者预期的呢?我试过几种问题思路:
      1、直接“搜索关键词”,他所呈现的是围绕关键词而排列组合的相关内容;
      2、要求提供相关文献及出处,连续追问三次都无法提供真实链接或内容,再追问情况下,会主动承认存在“杜撰”行为;但对AI提供的无法溯源的内容存疑时,可以追问“其内容是否为杜撰”,它们一般都会承认,并解释“互联网资源的滞后性”;
      3、将两个存在相关性的话题进行组合式询问,容易触发“预期式文字组合”,因为AI已经通过发问者的问题解构预判了“你希望这两件事有关联”;
      4、将两个不存在相关性、甚至是跨界的问题进行组合是询问(特别是抽象和具象结合),它们会先提供情绪价值——“你的理解非常透彻”,一般来说提出这种问题的人,也受不了这样特别的情绪价值,哈哈!

🎁
犒赏作者买杯小狗脚臭味的青青糯山 犒赏码

📮 目前博客评论功能停用。请在Telegram频道进行公开交流,也欢迎一对一私下沟通——不限于文章内容,任何形式、任何想法皆可。