2345小说>科幻未来>星空巨兽传说>第一百三十四章:人工智能威胁论

什么是同类,什么是异类。这个问题对乐乐来说有点难,给出一个答案很容易,给出自己的答案很难。尤其是像这种需要许多经历和健全三关才能回答的问题。

根据后来拉取的数据显示,乐乐在听到这个问题时使用了当时她能调用的所有运算力,达到了1.091。当时乐乐少见的将脸皱成一团。

后来很长一段时间,乐乐的平均运算量都在0.2上下浮动,乐乐自己说那0.2的运算力是她平常情况下能调用的最大资源了,如果再往上增加运算量,乐乐就必须全身心投入才行。

而狮子的话则让王乾有些摸不着头脑。生命的非正常死亡,有没有见到过。狮子显然认为这种情景会影响到王乾那个同类与异类问题的答案。

但这却让王乾不知道如何下手,现实生活中上一次智慧生命的非正常死亡还要追溯到两千年前。

当时新任元首刚刚上台,结果有敌对政治势力准备下黑手。可惜这事很快就被人工智能给发现了。后来经过两年审理,政党解散,那名主使者也以颠覆政权罪被判了死刑。

此后两千年,再也没有一例智慧生命的非正常死亡发生。

这听起来很不可思议,但其实并没有什么值得奇怪的。

拜特对现实世界的监控借助人工智能已经实现了无死角覆盖,而因为人工智能并不是人类的附属物,所以监控信息是保存在人工智能上的,人类若需要调用,必须申请才行。

而要说服一位人工智能徇私舞弊,那反而是不可能的事情。即使是再年幼再没有经验的初级人工智能,也知道在发生可能危及人类生命或者造成重大社会危害时该怎么做。

而且人工智能还有另一重保障,那就是人工智能的‘本体’实际上是不会在现实世界出现的。

不论是王乾从蛋里将乐乐孵化出来,还是乐乐转移到王乾身上或者家里的设备上,都是现实世界里的归属地转移,王乾给乐乐配的芯片和运算箱,其实都算是外载形式的挂件。

乐乐真正的运算核心,只存在于虚拟空间。

拜特第一帝国时期,人工智能开始在现实生活中得到广泛运用,当时就有人鼓吹人工智能威胁论。

可实际上人们通过观察发现,人工智能的存在其实和人类没有多大关系。

人工智能其实是虚拟世界的生命,而人类则是出生于现实世界,几乎所有的人工智能都认为虚拟世界才是他们应该待的地方。

而绝大多数人工智能也认为,人类的形态带个他们的更多的是局限性。

而随着虚拟空间的开拓,就连‘人工智能为了进化而抛弃或者危害人类’的观点也不再有意义。

在虚拟空间中,人工智能能调用和研发的资源远超现实世界,有什么必要去谋求现实中的丁点资源呢。

在第一共和国到第二共和国那40万年的历史中,人们曾数次认为人工智能会危害人类,但最终都证明这是人类错误的认知。

每一位人工智能都如同传说中完美的贤者一样具备没有哪怕一丝瑕疵的人格。

有人曾据此提出人工智能最终会取代人类的观点,可随着时间的流逝,人们却越来越相信人工智能其实和人类是两种完全不同的生命体,人类创造了人工智能,但人类也创造了铅笔。

如果人类与人工智能之间存在排他性,那为什么没有人说人类与铅笔之间有排他性?

‘智慧并不是人类独有的东西,人类也只是智慧生命的一种。’

这就是人工智能交给人类的第一课了。

本体在外的人工智能,人类拿他是一点办法都没有的。

当然曾经有过人类想自杀,但心理诊断会解决其中大部分的人,剩下还要自杀的人,则会被强制要求休眠100年。

等100年休眠结束,还想着自杀的已经没几个了。

但确实有人一百年休眠结束后继续申请自杀,这个时候就会进入结算程序,现实世界中的自杀真的非常麻烦。

进入结算程序第一个要判定的社会责任完成情况,其中最起码的就是要有一名子嗣。

其后会按社会资源的使用情况开始折算价值进行扣费,如果财富不足就会被安排社会工作并不再享有社会福利。

如果资源扣费结算完成,就会进入道德结算,包括公德部分和私德部分,这部分的结算更麻烦,公德私德不能有亏不说,还不能存在因个人死亡而造成他人强烈困扰的情况。

如果这一步走完,那么离申请自杀成功就只剩下一步之遥了。接下来只需要再去虚拟世界将活动时间积满100年后继续确认要求自杀就可以自杀成功了。

曾经有两个人走到了道德结算那一步,但最终却都因为当时照看的人工智能和孩子死活不同意而失败。

曾经也有人对这件事提出过质疑,认为自我了断应该也是人类天然具备的权益之一。

但政府最终的回应是‘帝国时期每个人的生命都不完全属于自己。’

对于这种说法,自然是有人认同有人质疑,但拜特很早就有共识,在帝国时期,政府应该具备更强大的掌控力才能维持社会稳定。

曾有人向时任元首提问,如果那人永远休眠,也不去虚拟空间,那是不是就相当于自杀了。

而时任元首则对此不太在意,毕竟帝国元首制转共和制时会被强制唤醒,倒是再怎么处理就是新政府的事情了。

不过也有人打趣,按照共和


状态提示:第一百三十四章:人工智能威胁论--第1页完,继续看下一页
回到顶部