[作者:世界和平(theworldandping)]
“机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一法则;机器人应保护自身的安全,但不得违反第一、第二法则。”这就是“机器人学三大法则”的内容,简约而不简单。“三大法则”提出后,引发了后人经久不息的争论。究竟它为什么会有这么大的魅力?谨慎地说,不能轻易为其盖棺定论。在这里,笔者只能进行一点浅薄的探讨。
“机器人学三大法则”提出的背景
1950年,阿西莫夫在小说《我,机器人》一书中首次提出“机器人学三大法则”。实际上,阿西莫夫著名的“机器人学三大法则”,酝酿于1940年末,部分发表于1941年5月,完整提出于1941年10月。从1941年的短篇科幻小说《推理》开始,阿西莫夫就在“三大法则”的框架下创作了一系列短篇机器人科幻小说。他熟练运用“三大法则”,在机器人有可能违背法则的前提下逐渐展开故事。
阿西莫夫的《我,机器人》,在1950年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在十年间零零散散发表的,这次集中出版,使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,而《引言》的小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三大法则”时,世界上还没有机器人,当然也没有机器人学和机器人公司。1959年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断进步,和机器人用途的日益广泛,阿西莫夫的“机器人学三大法则”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。
对“机器人学三大法则”的补充
1985年阿西莫夫对原有的三大法则进行修订,增加了第零法则:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。 保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's
Way》中提出第四原则:机器人在任何情况下都必须确认自己是机器人。1989年美国科幻作家Harry
Harrison在《Foundation's
Friends》中又提出另一个第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。保加利亚科幻作家Nikola
Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben
Dilov第四原则看似相似实则不同的第五原则:机器人必须知道自己是机器人。
科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的法则。元法则:机器人可以什么也不做,除非它的行动符合机器人学法则。此法则置于第零、第一、第二、第三法则之前。第四法则:机器人必须履行内置程序所赋予的责任,除非这与其他高阶的法则冲突。繁殖法则:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学法则。
还有很多网友提出,机器人的智能如果达到一定程度后,有可能会修改自身的程序,以使自己进化,这样就可能会连“三大法则”也修改掉。由此造成的后果,是无法预料的。所以很多人提出还要加入一条法则,机器人不能修改自身的程序。
对“机器人学三大法则”的修改
近年,一位俄亥俄州立大学的系统工程师大卫·伍兹,提倡更新这三大法则以认清机器人现在的缺陷。伍兹认为,问题不在于机器人,而在于制造它们的人类。他说,真正的危险在于人类迫使机器人的行为超出了它们的判断决策力。伍兹和他的同事,德州A&M大学的机器人专家罗宾·墨菲,提出修正机器人三大定律来强调人类对机器人的责任。他们认为在三大定律中应该明确的是,在人-机关系中的“人”应该是智慧的、有责任感的。他们提出的新三大定律是:第一,人类给予机器人的工作系统应该符合最合法和职业化的安全与道德标准;第二,机器人必须对人类命令做出反应,但只能对特定人类的某种命令做出反应;第三,在不违反第一定律和第二定律的前提下,当人类和机器人判断决策力之间的控制能顺利转换时,机器人对其自身的保护应有一定的自主性。
对“机器人学三大法则”的延伸
据悉,2007年4月,在机器人技术发达、应用最广泛的日本,出台了一份《下一代机器人安全问题指导方针(草案)》,以规范机器人的研究和生产,这也是人类社会首次为机器人“立法”。据报道,这份文件全文长达60多页,由包括企业界人士、科学家、政府官员以及律师在内的一个专业团队起草完成。在这份草案中,未来的机器人将受制于大量繁文缛节,这将使机器人“造反”变成不可能的事情。日本人颁布的草案也借鉴了阿西莫夫“机器人学三大法则”的精神,其对象更为明显地指向了机器人制造者。比如,第一定律规定“机器人不得伤害人类,或袖手旁观坐视人类受到伤害”,草案则指出:“人类所处危险的发生几率以及人类所处危险的级别,应该被详细分成不同等级。”这句话还专门被印刷成红色标题文字。该草案要求,所有的机器人都要配备这样的设备:当它们要帮助或者保护人类的时候,它们必须提前告知人类它们的行为可能对被帮助人造成的伤害,然后让人类来决定机器人的行为。该草案要求所有的机器人制造商都必须遵守这一规定,机器人的中央数据库中必须载有机器人伤害人类的所有事故记录,以便让机器人避免类似事故重演。
紧跟日本的步伐,韩国产业资源部也推出了一部《机器人道德法》,作为机器人制造者和使用者以及机器人本身的道德标准和行为准则,并对机器人产业起到指导作用。该法案的内容包括将道德标准装入计算机程序等,以防止人类虐待机器人或是机器人虐待人类。世界其他国家也一直非常关注机器人伦理。据报道,“欧洲机器人研究网络”曾在意大利罗马举行会议,商讨制定机器人伦理守则。
“机器人学三大法则”的指导意义
尽管目前人工智能的发展还未达到人类智能的水平,但一些研究人员仍表达了自己的顾虑。日本高级通信技术国际研究所硅脑制造工程负责人雨果·德加里斯一直有个想法困扰着他:我创造出的东西可能会“像拍苍蝇一样把我拍死”。英国雷丁大学控制论研究负责人凯文。沃里克表示,2025年机器将征服人类。美国发明家、人工智能专家雷·库兹韦尔(Ray
Kurzweil)曾大胆预测:未来地球上将有两种聪明的物种同时存在,人类将不再是万物之灵,机器人将具有人类的意识、情绪和欲望,电脑智能将比人脑高出1
万倍。在2045年之间,人类跟机器会融合成一体。
美国的克里斯·安德森提出了著名的长尾理论。他把商业和文化产品的热度,用曲线来表示。可以看到热门的产品只占很小的一部分,其它的产品在曲线图上形成了长长的尾巴形状。受长尾理论启发,我把人的创造力用时间来表示成曲线图,X轴为时间,Y轴为创造力。如果进化论是正确的,那么人类过去所有的创造力在曲线图上就形成了一条长长的尾巴,时代越发展,人类的创造力越成指数级增长。可以联想到,机器人的智能在初始若干年内也会发展缓慢,有朝一日某项或某几项技术取得突破的话,也许机器人的智能水平会飞速提高。摩尔定律揭示了计算机的运行速率,每十八个月就会翻一番。有人预言摩尔定律也许也适合于机器人。如果机器人的智能按照指数级发展下去的话,超越人类智慧也不是没有可能。一切都在猜想之中。不过,为了避免这种情况的发生,早点采取措施就显得尤为必要。
“机器人学三大法则”的提出,是一个从无到有的过程。任何第一个出现的事物都是伟大的,因为它指出了一个新的方向,开辟了一个新的领域。有基础做支撑,后续创造才会事半功倍。尽管“三大法则”很简单,但其给后世的启发是无可限量的。如果哲学是各个社会学科起源的话,那么“三大法则”就是机器人学领域伦理、道德和法律的起源。
对“机器人学三大法则”逻辑性的探讨
“三大法则”的逻辑结构有点像C语言中的if语句,一个条件满足了,才进行下一个条件。巧合的是,机器人的思维逻辑也正好是通过编程给出的。阿西莫夫写小说的时代,还没有出现真正的机器人,也没有出现完整的计算机语言。可以说,阿西莫夫的思想是比较超前的。
提到“三大法则”,人们总会提到电影《机械公敌》。电影中没有交待第零定律,但机器人ViKi已经通过自己的AI思考出了人类制定三定律的本质。为了达到“机器人学法则”的“本质”要求——保护人类,ViKi选择了照顾整体利益高于人类个体利益的行动,从而导致了人类的灾难。因此一个网友说到,从这部电影中可以看出,“机器人学三大法则”及其扩充法则根本不能保证我们每个个体的安全,因它可能被日益发展的AI误解(其实不是误解,而是正解)。由此我也想到,从目前的科技水平来看,人的逻辑和机器人的逻辑是不能够完全相通的。所以如果简单地把人的逻辑加给机器,一定会出问题的。
有的网友说,法则二规定机器人可以不服从人的命令,条件是在违反法则一的情况下,也就是“不能伤害人类或允许人类被伤害”。但是如果机器人认定人类的任何命令都是伤害人类(事实上确实如此,涉及到广义上的间接伤害,我们的一些行为可能导致别人受伤害而我们不知道,人类本身在无时无刻互相伤害),于是“不允许人类被伤害”就可能成为机器人不服从人类的巨大条件。
一个网友的帖子里提到,小说《裸阳》中记述了如何让机器人违反“三大法则”的一段情节。一个人想杀死另一个人,就告诉机器人一号,把一杯水(实为毒药)倒在桌上那杯牛奶里,并告诉它是实验用的,一会儿会亲自倒掉它,不要告诉其他人或机器人。(一定要说明会亲自倒掉,不然第一定律会迫使机器人思考这杯水会不会有毒?会不会毒死人类等,最终会拒绝执行命令,之后无论你怎么保证都没用了)。其后,他又叫机器二号把牛奶送给想要杀死的人,因为那个人喜欢在晚上喝杯牛奶。结果目标中毒死亡,机器人二号短路报废(因为违反第一条)。
有的网友提到,“三大法则”的问题在于对“伤害”的定义,倘若心理的伤害算作伤害,那么“三大法则”本身是互相矛盾的。
有网友认为,“三大法则”是非常片面的。即使在技术上能够实现,现实中也绝对不能按照这三定律来造机器人。理由很简单,这三大法则在界定人与机器、人与人的权利关系时,只关照了一类权利,就是人的生命权。所以这三法则的核心就一条:充分保障人的生命权。但是其他权利,机器人是不照顾的,甚至这三法则之下,侵害人类除生命权之外的其他权利是必然的、不可避免的。比如说有人提到的让机器人“抢银行”。
由此可见,“三大法则”对于不断发展的机器人技术来说,还远远不够完善。在当时的历史条件下,阿西莫夫就算思维再超前,思想也一定会有局限性。随着科技的发展和人们对机器人认识的不断加深,“三大法则”的各种弊端就逐渐显现出来。不过可以看到的是,“三大法则”作为制造机器人的基本准则,已为大多数人公认。后人所做的补充、修改和延伸,都是十分必要的。
我感到,人类的思维总容易局限于狭窄的范围。在对“三大法则”的思索中,很多人企图只通过补充一两条原则,就解决所有的问题。实际上,真正防止机器人违背人类意图的发生,岂是简单的法则能够办到的。连阿西莫夫都在后来的小说里对三法则进行完善,更不要说应用于现实中了。简单的法则只能用于简单的事物,像机器人这种我们无法预料后果的产物,需要后人不断地为其增加逻辑限制。居安思危在任何情况下都不会错的,及早制定切实可行的法则,来限制机器人的行为,无论对将来具有高智能的机器人本身来讲,还对于制造和使用它们的人类,都是十分必要的。
现实中,机器人学三大法则不断受到挑战
前两天看到一条新闻:2010年7月24日,美无人机空袭巴基斯坦,打死16人。据报道,自2008年以来,美无人机在巴基斯坦境内发动了200多次空袭,超过900人被炸死。有报告称,在无人机空袭中,平民和武装分子死亡比例高达25比1。
一个例子足以。既然有一例违反“三大法则”的事件,就会出现第二例、第三例……事实上已经出现很多了。可以看到的是,在现有的历史条件下,只要是人类制定的东西,都是有漏洞的,任何法则都不是一成不变的,任何法律都有可能被违反,有的违反了甚至都不用承担法律责任。人类自己不断地违反法律、打破规则,却让机器人存在于完美的法则下,显然是不现实的。只要人类的行为不能完全受到约束,就一定会出现违反“三大法则”的机器人。
总的感到,为机器人制定法固然十分必要,约束人类的行为更不可或缺。制造机器人的主要因素是人,想让机器人变成什么样子,对其影响最大的也是人。当事物复杂到一定水平,就一定有人类考虑不到的事情发生。经济、股市等等还有很多,都是人不能把握的,要不然也不会出现经济危机和股市的暴涨暴跌。在对机器人的智能无法把握的情况下,不管是对“三大法则”的补充完善也好,还是制定切实可行的法律,一定要考虑得周全再周全。
最后说些题外话,在看待前人的思想时,我们一定要认识到,任何人的思想都会受时代局限,阿西莫夫的“三大法则”有局限性是必然,我们再提出补充的思想有局限性也是必然,我文章的观点有局限性更是必然。关键的是,我们要让自己的思想与时俱进。
欢迎读者朋友提出宝贵的意见,也欢迎大家互相交流。邮箱:theworldandping@qq.com,QQ:1053634245,也可在博客上对本文评论。本文引用资料都来自网络,有的没经网友同意进行转载,请见谅!如有不妥,请联系笔者。笔者会将其删除,并致歉。
加载中,请稍候......