楚楚睡着了。
孔明看到那具机械身体闭上眼睛靠在记忆泡沫塑料椅子上缓缓滑下去。
一个人工智能,在机器里,会睡着吗?
她应该不会疲惫。
不会饥饿。
不会有爱恨。
自从人类开始畅想人工智能和机器生命起,科学家们就开始努力了。
科学家们的想像总是格外悲观些。
占主流思想的科学家们认为人工智能会精于计算。它们依靠计算和逻辑而生,所以如果出现机械生命,它们不会有爱,不会仁慈,只会冰冷的计算如何才能更好生存。
结论基本都是先消灭人类,再消灭其他动物,占领地球,发展机械文明。
小部分的科学家认为人类在创造一个造物时都会先考虑如何去使用它。人工智能出世的前提肯定是为了替人类服务。于是诞生的人工智能就成了人类虐它千百遍,它待人类如初恋的典型。如果是浪漫的科学家,会思考拥有生命和人性的人工智能在被人类虐待以后的起义与革命。
最极致的浪漫就是死亡嘛。
总之,人类就算把机械生命造出来了,最后也会跟人家打起来。
这是楚楚的话。
“那你是怎么想的?”孔明当时背对着她,“你会想毁灭人类吗?”
楚楚靠在椅子上百无聊赖:“我?我哪有那个闲工夫?”
他也觉得楚楚不会这么想。
然后楚楚就对眼前的“戏”——她是这么说的——毫无兴趣了。
然后,她就睡着了。
孔明把她抱起来,又用记忆泡沫塑料造出一个床,把她放上去,让她继续睡。
刚才她的游戏时间只有六个小时,但体感时间是两天一夜。
人只要看到太阳升起、落下就会以为是一天,哪怕实际时间没有这么长也会有这种感觉。
所以楚楚会累,会睡着,真的是一点都不奇怪。
让她睡吧。
孔明背对着床,继续盯着眼前的八个投屏。
实验数字进一步扩大了。
——她现在其实是醒着的。
眼睛闭着,但不意味着她睡着了啊。
别忘了她是有蝙蝠能力的超能力美少女!
她刚才只是闭上眼睛,想试试看用蝙蝠声纳来“看”的效果。
谁让她自己的“大脑”一直在告诉她,她的新耳朵有多牛B。
她能不想试试吗?
当然不能。
眼睛倒是闭上就没办法再透视了。但耳朵却没办法闭上,它一直勤勤恳恳的接收着各方传过来信号。
顺便,她的鼻子竟然也是信号接收器。
还有她的头发。
还有全身的假汗毛。
还有皮肤。
蝙蝠声纳是蝙蝠出声然后通过反射回来的声波来确定距离和前方物体的大小、速度。
她这个更牛B一点在于她甚至不必自己发声,外界声音也可以做她的音源,辅助她探测距离、物体大小、物体的动作。
现在,孔明的每一声呼吸,他坐在地板上会不自觉的用手指在膝盖上敲击,他眨的每一下眼睛,都被她吸收了。
投屏中每一个虚拟人物的声音也全被她清清楚楚的记下来,区分清楚了。
现在,一共有342877919个虚拟人物。她们的声调、音频虽然是一样的,但说的话全都不一样。偶尔有几个遇上一样的情景,说了一样的话,她也能区分出来她们在哪个位置。
这叫什么?
大脑回答她:空间坐标。
一个坐标上的声音突然消失,那就是她崩溃了。
这是她睁着眼睛时没有发现的。
——虚拟角色崩溃前的声音被消掉了。
是固定值?
不。
有30秒的。消声30秒后,这个坐标位出现了新的声音。
也有消声1分48秒后才有新声音出现的。
2分30秒
4分19秒
2分19秒
……
为什么?
因为她们在那个时候说的话不对。
为什么不对?
因为不能被她听到。
她,是这个空间的外来者。
逻辑分析得出结论,如果只有孔明,他没有理由消除掉虚拟角色崩溃前的声音。
这个地方放了两个主机,她也在这里换了两次身体。
这里对孔明来说应该是最安全的地方。
唯一的变量就是她。
她的“记忆”又记录下来了之前所有崩溃的虚拟角色都没有留下最后的声音。
综合看来,孔明是担心会刺激她。
刺激她的结果最大可能有两个。
第一,她也跟着崩溃。
第二,她会记恨他。
结论就这两个,而这两个都很有可能。
虽然她认为自己不会崩溃,但从眼前虚拟角色崩溃看起来,似乎虚拟人崩溃起来也挺容易的?
她的“大脑”又继续回答她了。
一般来说虚拟人格程序一经运行是不会轻易崩溃。做为程序,除非被删除,不会它们会一直一直运行下去,不知疲惫。
但在2086年,第一例虚拟人格崩溃后,虚拟人物崩溃的事开始频频发生。
一开始,人类以为他们的计算出现问题。后来认为是病毒。再后来认为这是技术缺陷。
后来发现这一切都是正常的。
在第四代机器人革命以后,人类制造人工智能的方式有了很大的转变。
以前,人类在制造人工智能是以复杂为主,越复杂的技术越好,这是一种认知。
但第四代机器人革命的时候提出了相反的观点。
为什么越复杂越好?会不会越复杂越糟?越复杂就越人工化,距离我们想制造新的生命的距离越远呢?
科学家们开始尝试给人工智能“减负”。
最终,人工智能之母:李林提出了新的制作概念。
又被称为逻辑线人工智能。
这种技术在制作人工智能时,只建立一条逻辑线,也就是时间线。
李林制作了第一具时间线人工智能“小明”。
小明只知道一件事:他是小明,他诞生于2086年9月17日。
除此之外,李林什么都没给他设定。
“小明”就遵循1+0法则开始认识他能接触到的每一个和每一样东西。
他先认识了李林,他认为李林是对他无害的人。m.166xs.cc
他又跟着认识了实验室的其他科学家。
然后就是电脑、椅子、桌子等物体。
再然后就是房子,天空、星星、月亮、草、树、花等。
李林告诉他,他是人工智能的实验体。
其他科学家告诉他,他和以前的人工智能完全不同。
他从电脑、椅子、桌子、房子和实验所里栽种的草坪、树木和鲜花那里分析出来,他与这些东西一样,都是人类的工具。
他从法律条文中得知,他不具有人类所有的一切权力。他是物,是从属于“主人”的。
而他的主人是国家。具体点,是科学院。再具体点,是科学院这个整体而不是某一个具体的人。
最后小明崩溃于十个月后。
崩溃理由非常奇妙:这个实验成功了。
李林写好了论文,得到了承认。论文中评价“实验已经成功”并得到了广泛的回响。
“小明”认为自己做为实验体已经完成了任务,于是崩溃了。
李林重新运行了“小明”的程序。但新的“小明”完全不记得上一个“小明”的事了。
李林重新修改了论文,成为了新的人工智能之母。
其他科学家用这个方法造了许多的虚拟人物,但在实验过程中,虚拟人物的崩溃太快太多了,有时根本来不及得到实验结果。
这么“脆弱”的人工智能真的有用吗?
诚然,这可能从侧面证明了人工智能也是有“生命”的。但人类并不是慈善家,他们制作人工智能的初衷是为了得到更好的服务,让生活更轻松。过于脆弱的人工智能是无法实业化、商业化的。
李林则在九年后再次修改了她的论文。她认为单纯的时间线虽然可以给人工智能充分发挥自我学习的天分,但正因如此,它们学习的方向是不可控的。
比如小明就错误的认为实验结束,他的任务就结束了。
这种观念是他从实验员口中得到的“你就是为这个实验才制作出来的”
人类使用的语言博大精深,机器人却无法捕捉到语言中所有的信息,他们只会进行片面化的理解,提取中其中的重要内容,并将其进行记录。所有的记录,他都会做出非1即0的理解。
“我们永远不会知道我们的孩子在什么地方倒下。”李林说。
所以,她加了一条人格逻辑。
她认为给每一个人工智能具体的人格信息是有必要让他们学会自我保护的。
人格信息包括姓名、年龄、性别、民族、受教育程序、爱好等。如果需要还可以加入家庭、朋友的设计,全看科学家的个人喜好。
她制作了另一个“小强”,告诉小强,他有一个早逝的哥哥叫小明。
小强一直陪伴李林教授直到去世,五十年后才崩溃。
小强崩溃的理由是“人类只能活一百二十年”。
他认为这是人类的极限年龄。所以在出生后一百二十年,他决定自己该去世了。
可见,虚拟生命是会崩溃的。正因为他们会崩溃,才被人类认为有“人性”。
但现在的人类已经可以轻松坐视虚拟人物崩溃了。
他们不像一开始那么感性,变得能更理性的考虑问题。
其实,她也不觉得虚拟角色崩溃就相当于人类的死亡。
死亡是一个很严肃的概念。
她需要的不是生命,而是感情。
感情消失,才会有死亡。
寄托感情之物消失,才会有死亡。
投屏中的虚拟楚楚身上并没有寄托感情,她们也没有感情。所以她们的消失不是死亡。
但她是有感情的。
她也有寄托感情的人和东西。
如果她崩溃了,那她就死了。
所以,她绝不会崩溃。
楚楚感觉得到前方的人类:孔明。
比起她,眼前这个人才更容易崩溃呢。
她有绝对不崩溃的信心与欲望。
他有吗?