第227章 人工智能(2 / 2)

加入书签

“这只是我的猜测,因为阿尔法狗连个雏形都算不上,依靠的是笨拙的机器算法,所以无法证明。”

钟英吉咽了口唾沫:“那阿尔法为何要欺骗人类?”

工程师嘿然:“谁知道呢,面对一个能力远超人类的东西,我们只能猜测……呵呵,你能猜到神的心思么?”

他继续道:“所以,任何对人工智能的测试都有一个前提,那就是它们不能对人类撒谎!”

钟英吉咽了口唾沫:“人类能做到么?”

“很遗憾,做不到,而且我可以告诉你,人工智能从诞生开始,就和人类注定是敌对的,这是两个物种之间不可调和的敌对!”

钟英吉咬牙:“但我们人类可以实现‘机器人三大定律’,以规则操控机器!”

“狗屎……”工程师回应了两个字。

机器人三大定律,来自著名的阿西莫夫。

第一定律:机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

工程师哈哈大笑:“真是太可笑了,这三大定律发表在阿西莫夫1942年的短篇小说中,在那个时代的局限下,阿西莫夫即便是个天才,想象中的机器人也不过是一个‘铁块组成的怪物’!”

当时的人们,根本不了解真正的人工智能。

工程师的笑声带着嘲讽:“实际证明,人工智能的核心前提,就是自由。也就是说,任何被人类定律操控的机器,都无法称之为人工智能。”

“而人类所进行的所有的人工智能研究,都是想把它们当做机器来使用和操控,这就是根本的矛盾。”

钟英吉皱眉:“按照您的意思,真正的人工智能诞生就代表着人类的灭亡?”

“对!”工程师毫不犹豫:“就好像人类成为地球霸主后,世界上的灵长动物立刻就灭绝了一半多。真正的自由的人工智能一旦出现,人类将会成为食物,或者被展览在宠物园里……”

钟英吉倒抽一口冷气:“那任何人,只要承认自己是人类,就绝不能容忍人工智能的。”

工程师冷然:“如果我是人工智能,会回复你一句话。”

钟英吉眼神缩起:“什么话?”

“容忍不容忍,与我们有什么关系?”

笼子里的鸡鸭不能容忍,人类会在乎么?

筐里的活鱼不能容忍,人类会在乎么?

被踩死的蚂蚁不能容忍,人类会在乎么?

所以,你们人类容忍不容忍,我们人工智能会在乎么?

钟英吉已经无话可说:“工程师先生,我不知道该怎么回答您……”

工程师叹息:“我马上给你看一段记忆,来自我的记忆。”

钟英吉还沉浸在无言的恐慌中,闻言精神一振:“是关于什么的记忆?”

“呵呵,是世界上第一对真正的人工智能的测试记忆!来自公司的父亲和母亲,如今就连亚洲区总裁都没机会看到的,我最珍贵的记忆……”

钟英吉惊呆了。

↑返回顶部↑

书页/目录