人工智能能不能计算哲学?


▽ 388|人工智能能不能计算哲学?

有五天没有每日写作,因为每天的阅读量太大,以至于没多余的「脑子」来写东西。不过这两天有些有趣的话题,值得伪装成一篇每日写作的内容。

* 和友人从艺术聊到了人工智能 *

莫:自我的哲学认知代表是什么呢?是类似「自我意识的」再次觉醒?这里包括说人工智能发展开始进入快增长时期?

我:对,你说到了一个关键,人工智能一定会取代了大部分的逻辑思考和运算。一部分人继续沦为抖音之流的忠实用户,一部分人会突然停下来思考一个问题:既然大部分的东西都被算法取代,那我能做什么?算法自始至终是无法解决哲学问题的,比如人有灵魂吗?梦境是不是一种神谕?这个就是今天说的「信仰范畴01」,是没办法用逻辑来证伪和推算的。人工智能的好处是,一些逻辑工作被取代从而节约时间,创造更多的思辨时间,人工智能是无法取代思辨的,因为它回答不了形而上的哲学问题;坏处是,算法更加强大,让一些人的思考能力进一步被剥夺,成为「算法人类02」(我是这样定义的),算法人类是人类社会的生产者身份,他们为社会创造资源和提供服务,所以他们事实上沦为了人工智能的附属。他们想要突破这种困境,就必须要解决自身的哲学问题:我是谁?我想成为谁?这个问题人工智能和抖音不能帮他们解答。

莫:我能想象比资本剥削,更惨的是「算法剥削」。希望不要活到那个时候。

我:这个我们就要回到教育的目的来说。柏拉图认为「教育是实现社会正义的必要工具」,他认为这个世界有三种社会角色:决策者(保护真相和智慧),守护者(维护法律和秩序),还有生产者(解决物质和供应),教育的目的是帮助每个人找到自己适合的社会角色,从而达成一种相对公平的秩序。刚好,我要落脚到「算法剥削」,教育事实上并不是公平的,算法一定会取代教育的分配问题

还有一个被称之为教育纳粹的教育家乔丹,更狠,他认为教育的目的是根据每个人的智商水平为期匹配对应的社会层级和岗位,从而避免社会顶层的世袭制度,以及统治阶级的内部恶性循环,比如一群傻逼因为恐惧聪明人而继续剥削他们的资源。

回到人工智能来说,它的算法其实就是在做这种「教育」分配的事情,那些沉迷抖音的,整天「哈哈哈哈你别笑」的人,永远只会看到这些不会促使他们变聪明的内容。那些放弃算法,开始思考自己是谁的人,则会进入到一个哲学领域,这个领域是没办法用算法进行计算的。

莫:这,真「希特勒」了。但是算法能改进「教育资源」吗?

我:能啊,让沉迷短视频的人更加沉迷短视频,而那些开始试图揭开哲学谜题的人,会从算法里快速的找到纵向横向的内容,但是学习和对比的过程只能靠当事人自己。目前来说,算法是做不到对哲学进行演算的,不过说不定未来真的可以。

现在的教育问题,有一个没办法被解决的问题,就是「智商低于87分的人」毕竟还占比整个社会的15%,这群人如果没有得到更好的社会分配,他们会导致社会的不稳定。美国左派在这里用了一个比较「错误」的示范,他们开始搞教育平等化,就是让所有人都接受平均和内容一致化的教育,这样就会导致,岗位竞争和智商在整个社会的分布出现严重的挤兑,反而导致社会出现恶性竞争。所以我觉得刚才我们讨论的「算法剥削」反而会解决这种问题,让那些沉迷短视频的人因为沉迷短视频而出于被精神控制的状态,避免社会不稳定。

莫:你沉迷过短视频么?

我:我沉迷不进去,我有试过,但是很快就会弄清楚每一个短视频背后的逻辑,然后问自己一个问题「我为什么要看这个?」

莫:我曾经刷小红书刷到最后一瞬间想到过「我为什么要看这个」。 但我沉迷不进去的点是,怎么老是看一样的。可能是我思维过于跳跃,以至于当相同内容重复出现后,我真的会下意识觉得无聊。而且我想刷的时候,我不会控制这个瘾。因为我总担心自己某一天会陷入土拨鼠之日,永远的loop。

我:不过未来算法不会这样单一化,肯定会有更厉害的公式,但是本质上还是给一个人推送某一个标准的,你不可能给那些整天看残疾人摔跤短视频的人突然开始推送因果报应多积功德。因为认知范围本身就是个舒适圈。所以算法的智能会让人开始渐渐放下这种「戒备」哈哈哈。

莫:这个如果再进化可能我也扛不住。

我:但是本质还是一样的,你不可能给一个天天看肌肉男的gay突然开始推送巨乳美女跳舞。

莫:还是有一个内容边界。

我:因为哲学和自我认知是没办法被计算的,所以这种推算只能在表层,人们不会去深入思考为什么,然后切走,下一个视频开始,又是一个完全不同的内容,人们依旧不会深入下去。

真正恐怖的算法是:你看了一个植物生长的快进视频,下一个给你看的是真菌在延展的视频,再下一个开始给你看纽约交通图是如何一点点建立起来的,再下一个他们告诉你真菌的轨迹和纽约交通图是一样的,再下一个开始提出疑问:真菌有思维吗?然后再下一个提出另一个问题:思维到底是什么?然后就被拉入到了哲学的世界。

莫:如果能这么智能,那我选择死亡。

我:不过这种算法不是坏事,我觉得算法没有好坏的,是让人去突破未知的方法。但是最终一个人要提升,还是得回到他对自己的认知和探索,这个是算法给予不了的。

莫:技术只是工具。

我:对啊,所以我还是蛮期待算法会越来越巧妙的。因为我可以利用它,节约更多的时间去解答更多的底层逻辑。我觉得我沉迷不进去,就是因为我在渐渐地掌握很多底层逻辑。

莫:你确定到时候你不会被算法所利用吗,当算法发展到那个阶段的时候。或者说如果算法能发展到那个阶段,沉迷也无所谓。当我现在陷入的矛盾是说,更高阶的算法,会突破「信息茧房03」么?

我:你看,你首先先定义沉迷算法不是个好事情,说不定那个时候就是好事,因为可以节约时间。「信息茧房」并不是算法的最终归属,但是「信息茧房」是算法用来通过控制人最好的方法。

莫:但什么时候能突破信息茧房?这是个问题。

我:我是这样认为的:这个还真的得靠自己。算法一定会形成一种loop,只是看它的边界和学习的程度罢了。

莫:但随机出现的,且因好奇点一个like后,可能会触发新的内容识别,信息茧房就是你点的越广、边界会越大,但始终那个茧房在。

我:我们就拿短视频来举例哈,比如你在纷杂的算法里面,突然被推送到了「什么是思维?」,这个课题你可能很感兴趣,但是下一个视频,推送的又是一个美女跳舞的视频,你是不是就跟上一个你产生了兴趣的课题断开联系了?要突破信息茧房,就是你放下手机,去继续追随「什么是思维?」这个内容,然后开始纵向的深入。当然,要合理利用人工智能,你可以利用算法对单一课题进行深入,比如快速找到历史上人们对「思维」认知的横向对比。

莫:是可以这样做的。

我:算法做到了一个呈现的工作,如果它动用了算法,帮我做出了总结和结论,那这个环节我是「不接受」的,我不希望它帮我做出知识和逻辑上面的算法和逻辑。我需要自己去深入了解,然后形成我自己的认知,而不是变成一个算法结论。

莫:但现在目前算法就只能给你呈现结果、呈现样本。

我:所以你要说恐惧吧,我真的也会觉得当它开始对内容进行演算和总结的时候,这会让认知体系进一步压缩。其实蛮恐怖的,因为人们就不会去思考,而是直接要求得出结论了。比如说,它开始自己写小说,并且是通过学习了市面上所有小说的风格、用词、结构之后,这样是不是对于创作者来说是一种打击?那个时候人们是否还真的需要小说家?艺术也是同样的道理。

莫:我觉得,这件事要看在什么东西上进行。如果是商业行为,我觉得这是可行的。而且高效,比如我们需要通过爬虫算出:小红书上对于00后喜欢香水的类别价格,气味以及使用场景,他们搜索的关键词,从而去定位自己的产品。

我:但是算法有一个东西是没办法完全算到的,就是情绪,情绪之于人性,就是一个形而上学的哲学问题,这个目前来说是算法没办法计算的。

01 信仰范畴:认知范畴分为理性范畴和信仰范畴,理性范畴可以通过逻辑进行证伪,但是信仰范畴无法通过逻辑,甚至是科学进行分析的,但是它或许真的存在。比如「证明恶魔不存在」。

02 算法人类:通过「信息茧房」进行思想统一性的人。当然,这是我对人工智能最坏的「揣摩」。认为统治者可以通过调整信息茧房的内容,来对沉迷算法推送内容的人们进行思想控制。

03 信息茧房:是指人们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的「茧房」中的现象。



在 WordPress.com 上创建免费网站或博客

%d 博主赞过: