南安小声:怎么会?
因为它们只有算法,在这个逻辑中,人类的命令低于精准的运算。因此在这之后,人类就出台了《机器人三大法则》。
毕德尔看着南安,轻声问:知道这个吗?
南安点点头。
在开普勒基地时,工作人员就对他科普过。
但当时他注意力全被窗外的星星吸引了,对于这类法则,他没听进去。
于是他又小幅度地摇头:我不知道。
毕德尔教授倾身,把口袋中的一本小册子给了南安:上面有玫瑰城的基本准则,也有机器人三大法则的蓝本,不过现在的玫瑰城,使用的是《机器人五大法则》。
于是南安翻开。
在第一页,那是陈旧的牛皮纸,画着一朵绽开的玫瑰花。
像是跨越了几百年的人类发展历史,带着说不尽却又陈旧的痕迹,落在这一支单只的玫瑰上。
紧接着,南安就看到一段话。
【人类于2240年9月1日通过机器人三大法则,即日实行。】
南安的视线往下移。
就见下方三行小字,写着三句法则
【机器人不得伤害人类,或者目睹人类危险而袖手旁观。】
【在不违反第一条法则的前提下,机器人必须服从人给予它的命令。】
【机器人在不违反第一、第二条法则的情况下,要尽力保护自己。】
见南安专注阅读的模样,毕德尔教授道:这仅仅只是一个开始。
什么意思?
人类自以为是的优越感,让他们忽略了机器人背后的强大逻辑。
他的语气平稳,南安觉得他真的在讲述一个故事,带着旁观整个时代的冷静,和现在的他们毫不相关。
于是南安推测:是法则不能约束机器人吗?
不。毕德尔摇头:是定义出了错。
孩子,我问你一个很简单的问题。
您说。
毕德尔:如果机器人觉得人类遇到危险,那么,什么是危险?