人们为什么不愿意相信人工智能?

△ 158|人们为什么不愿意相信人工智能?

原标题本应该是《我为什么不愿意相信人工智能?》,就连我自己看到这种「我」字辈的标题都有一种「你他妈是谁啊,你觉不觉得关我屁事」的心态,所以才谨慎小心地改了个标题,不过确实「不相信人工智能」这件事并不是我秉持的观点,而是我问过很多人这个问题,得到的普遍答案都是「不信任」。

只不过这个「不信任」有诸多值得玩味的地方。为了避免引起「人工智能派」和「人定胜天派」以及我这种「巴不得看到人工智能背叛人类然后制造毁灭桥段的搅屎棍派」争论到底孰对孰错,今天的文章仅仅只是陈述我搜集到的内容,并非引战和否定对方。如有,我提前道个歉——因为明显我是故意的。

远离简体中文网络,因为它会带来不幸

「这不是我信不信的问题,而是我到底还有多少隐私可以被偷窥的问题。」

在不信任所谓的「人工智能」观点里,当然会出现这种以偏概全的结论,这个结论本身也是我非常推崇的一种。并不是一刀切,而是在中国的简体中文网络环境,大家比的是看谁更烂、谁更没有底线,所以就不要怀揣着一种「哇,人工智能将带来全新的元宇宙改变人类生活」的激情和兴奋来期待它的本身。这个是这一关键的核心基调——对简体中文网络的根本不信任。

因为是法学生出身,所以我无聊的时候有认真地将各类国产输入法的《隐私条款》细细地品读过一遍,我曾在《隐私换便利》里具体讲过,这里就不再赘述。总结起来就是一句话:这些国产输入法,在记录用户大量的隐私数据之后,不仅要投放给广告联盟,还有一个可以对抗所有所谓「隐私保护」条款的最高法则——「强制披露」。也就是说,只要在那些模糊的定义之下,用户数据可以无条件地被披露出来,而这些模糊的定义等同于「相关部门」「有关领导」「专家学者」「据外媒获悉」等等。

也就是说,建立在一个完全没有隐私保护基础上的网络环境,它繁育出来的「人工智能」只可能是畸形产物。看上去它是通过「算法」给用户推荐了「所想」的产品,事实上,这些数据是跟着一个用户肖像走的,而这个肖像关系到一个用户最基本的家庭住址、手机号码、注册邮箱、购买商品记录、乃至推算到婚否、育否、性别、性向、甚至是可能的人与人的重叠交际。

其实这套系统一直都存在,而它被拿到台面上作为一种「手段」的时候,大家还误以为它是一种保障民生的系统——也就是所谓的「时空伴随者」。

一切无法建立在相对隐私保护环境下的互联网产品,本身就是一场比谁更会作恶的比赛,那些写在产品介绍栏里的「我们绝不记录用户任何数据」反倒成了一种「卖点」。更别说人工智能本身,它如果要应用到每个人息息相关的生活,那它本身能收集到的东西远远超过我们的想象——并且它的计算是不会出错的。

试想一下,一个男性在购物软件上面经常购买女性内衣,那人工智能应该如何计算他呢?如果他最后又购买了大量的胶带、面具、防水布、大号黑色口袋等等,那人工智能可能会直接把他上报给公安局作为重点观察人员吧。

「开源」与「非开源」,「贼走后门」与「自己打开家门让贼进」

「导致软件需要预留后门的因素并不是软件开发商,更多的时候也是一种政治因素。」

给软件「开后门」其实是一个很暧昧的论题,就算被人抓包看到了国产软件里被预留的后门,也一定会被当成是BUG给处理掉。闹得凶点的,兴许还能看到软件开发商出面无关痛痒地解释一番;但是大部分的情况,就是在「下一个版本」里被默默地「修复」了。

不知道在各位阅片的经历中,是否有看过通过破解某公司的视频监控设备获取而来的「国产片儿」。其实我一直在思考一个问题,既然它如此地容易被破解,那为什么这个公司不对它们的设备进行升级,避免再被不法分子利用呢?

当然了,这里我们不能对该公司的产品进行深入讨论,避免他们通过最根本的解决办法——解决提出问题的人的方法来结束这件事的「发生」。

这几年因为用的都是macOS,所以已经不太清楚Windows的操作系统还是不是以前的那种模式——好不容易下载一个软件,还得点选好几层选项,避免被捆绑安装。当然,在这个过程中也有另一种「卖点」出现,那些当年靠捆绑安装堆高用户安装量的软件商,都开始做「安全管家」了,保证用户不会再被捆绑软件骚扰。

放到人工智能再来想想这件事——比如家里有一台智能镜这类的产品,那它的摄像头真的只是作为「人工智能」的需要,还是它还有别的「后门」可以被人利用?智能语音助手可以随时听候我们的差遣,但其他时候它是否也在偷偷上传我和别人的对话?这不是我们可以讨论的,但是我们可以用最坏的方向去思考的。

试想一下,一个犯罪者,他的家里刚好有一台智能设备,他跟共犯在讨论如何抢劫的时候,「刚好」被智能设备录下对话记录并上传,最后他们的犯罪被阻止。那侦破他们的方式在对外的时候应该如何宣称?这恐怕就是所谓的「技术手段」了吧。

当然了,这也有了另一种哲学与法学范畴的思考——隐私与预言犯罪,这个未来可以再聊。

「给大家讲个笑话:他居然要做安全软件耶!」

人工智能永远有一块「遮羞布」,揭开它就必须要重新讨论人工智能的存在性

「最好的人工智能就从大洗牌开始,公布所有人的开房记录,都他妈全裸了还讨论什么隐私?」

人工智能的「遮羞布」,顾名思义,就是隐私。因为它若要「智能」就必须要有条件和公式。公式是商业领域的核心竞争力,但条件却是人们需要付出的「隐私」。关于互联网隐私,有很多博客大佬都谈及过,这里就不班门弄斧了。

私以为,「隐私」是一种相对的要素,但它应该存在一个绝对的约束性——也就是追溯系统。

如果「隐私」无法追溯到一个账号主体背后的实际使用者,那这些「隐私」就是相对安全的,就算那个账号搜索过再多的「强奸案的准备工作」;

如果「隐私」是可以被追溯的,能明确地给某一个现实用户贴上足够多的条件,然后将其套用到公式之中,为其计算出各种人性化的预判,那这个「隐私」明显就像是「明文密码」一样,完全可以反馈出一个用户真实的用户肖像;

当然,在「隐私」讨论中,还有一种折中地带——即增设一项预判系统,比如刚才那个在网络上搜索过「强奸案的准备工作」的用户,他搜索的内容明显带有「犯罪意图」,那他的数据是被上传的,以作为「预防犯罪」的要素。而其他为触发预判系统的信息,则作为「相对隐私」的数据,无法追溯到具体的真实用户。

不过很可惜,就算是这样的折中情况还是会惹众怒,比如之前苹果系统打算将用户相册里可能的「儿童性犯罪」的图片上报给安全机构。这个计划因为反对的声音太强烈而被搁置。这套预判系统,恰好就是人工智能的「遮羞布」,下面是什么大家都心知肚明,但要不要撩开每个人都有自己的考量。有人觉得有一块不挡着总比全裸的好;有的人还没有看到下面的东西就已经开始意淫它是多么的庞然大物;还有的人自己已经想到了更龌龊的事情但为了不让别人看出他的心思,就必须要反对它的存在,理由是:它虽然没有让我有幻想,但总会让有的人幻想。

人工智能是否真的能替代人的存在?

人们为什么不愿意相信人工智能?插图
《新世纪エヴァンゲリオン》

我很喜欢《EVA》里的一个设定——MAGI电脑,别看它是95年的动画,但对很多东西的探讨在今天仍值得讨论。MAGI电脑确实是类人工智能的存在,它智能的点,是赤木直子博士将自己的大脑、人格和意识作为载体植入到了超级电脑之中。以《圣经》中东方三博士为原型,分别是作为博士的赤木直子、作为母亲的赤木直子和作为女人的赤木直子三种人格形成了一个内部悖驳的系统,三台主机之间形成的一票否决制,是将「自我」「本我」和「超我」的应用构想。

当赤木直子的女人赤木律子决心要杀掉她和母亲同爱上的男人时,她决定让MAGI决议自毁,结果没想到,作为女人的超级计算机最终一票否决了这个决定——她作为一个女人,背叛了自己作为母亲对女儿的爱,以及作为博士对绫波丽的仇恨。

虽然这台人工智能的电脑是艺术加工,但也留下了许多值得思考的点——将人类的意识作为载体成为人工智能的基础,那这套系统本身还能不能被称之为「人工智能」,似乎它又带上了太多的主观要素。

以整个论点作为思考,我在自己写的小说《非公开梦境》里,用了另一种极端的手段来进行思考——如果人类的隐私是绝对私密的,那到底要用一种怎样的载体才能承载他们?而这种绝对的隐私必然毁掉某种「相对」的存在,如果今年我能把这本小说重新修改出来,也值得拿出来和大家再次讨论「人工智能是否能替代人类」这个话题。

其实在这些人工智能的构想过程中,有一个无法被规避的悖论——就是人工智能的最终维护和把控还是得交回到人类手上。如果有一天他们真的获得了自由意识,至少人类可以成为最后那个「拔掉电源」的最终保险。

当人类发现意识和潜意识可以分离的那一天,我们就找到了遏制犯罪的方法。“9TH”是命运的纺线者,这是潜意识的基础,是永远不会撒谎骗人的;“10TH”是命运的测量者,这是意识的基础,他们来评判每个人的潜意识里是否存在杀意;而我们,所保护的摩尔塔,是手持剪刀的决策者,由我们来定夺是否要剪断会导致灾祸的纺线,命运的三女神,只有成为一体的时候,命运的齿轮才得以运作。

——《非公开梦境》

《人们为什么不愿意相信人工智能?》有8条评论

  1. Machine Intelligence is the last invention humanity will ever need to make.
    — Nick Bostrom What happens when our computers get smarter than we are? TED

    曾经我信誓旦旦和视觉艺术的同学说:人工智能不可能完全取代人类,毕竟设计这方面主观性还是很强的,只不过看到最近的Dall · E 2之后,还是感觉我自己的观点开始摇摆了。

    回复
    • 如果把「人工智能」理解成是一种人类可以获取的「自由」,那相对的,人类就必须要牺牲某种「不自由」,其实人工智能可以算是一种现代哲学,探讨它本身是非常有乐趣的。

      我也有趣关注过DALL-E,它能帮人突破想象力,不过这些想象力一旦成为公式,人类的想象力如果能被计算也没有乐趣了。但是另一些公式化的工作,确实人不如人工智能,比如阿尔法狗。

      回复
    • 这背后可以计算的东西太多了,也没人敢保证当他们拿到这些数据之后,会不会有作恶的行为。

      回复
  2. 回到关于人工智能的话题,360曾经提出现在的互联网安全已经并非仅仅是病毒时代,而是他提出来了一个大安全的概念,其中就包括涉及公民隐私的信息安全方面。

    一个弹窗广告会读取平时浏览的信息,并通过大数据整合后,广告内容就会智能匹配刚刚搜索或者浏览的相关内容。这就侵犯了隐私。因此通过弹窗推荐广告已经是一个很流氓的行为,可笑的是,360竟然做到了极致。

    人工智能并不懂什么是好与坏,只是不同的人利用人工智能后,就出现了好与坏的定义。所以,我认为人工智能并非可怕,可怕的永远是人心。

    回复
    • 对的,其实这才是关键,人工智能本身是没有属性的,而是开发它的人让它可以作恶也可以不做恶。所以我们自始至终要去讨论的,永远不是「人工智能」能否给人类的生活带来怎样的改变和飞跃,而是要讨论,那些开发和管理人工智能的人,他们到底会将它引导向善还是恶,但最终这中间都会有一个灰色地带,这个地带如果不存在,绝对的善恶本身就是不可能存在的东西——但一旦有灰色地带,就意味着它的便捷是人们需要做出某种牺牲和妥协的。但愿能有真正意义上的人工智能出现,而不是由恶的追随者为所有人制造一个披着善面具的怪物。

      回复
  3. 从微博被阿里实际控制后,我就意识到网络充满了信息冲突,隐私泄露、诽谤、谣言等等,然而这个阿里没有关系,只是一个时间节点。所以那一刻我把涉及到隐私的内容全部清空或修改虚假内容,我和你一样,没有在website上链接到一个社交网络。

    然而依然防不胜防,你的电话、身份信息、甚至依靠大数据而获取的朋友、亲属关系等,依然会被有关组织出卖给其他不怀好意的人手中,比如腾讯。不过还好我不是什么重要人物,除了营销和诈骗,还没什么可榨取的。

    网络环境已经足够恶心,这也是我建立独立博客的原因。保持一分清静,保持一分清醒。

    ps:如果使用衬线字体,我觉得字体还可以再调大一些,哈哈~

    回复

发表评论