阿西莫夫机器人第一原则之一
(2010-03-29 10:15:44)
标签:
阿西莫夫机器人三原则机器人三定律第一原则杂谈 |
分类: 机器人 |
伦巴吸尘器需要机器人三原则吗?
干戈戚扬http://blog.sina.com.cn/ggqyzm
伦巴(Roomba)吸尘器是美国一家机器人公司的产品,它是一个小型简单的机器人,能定时自动清扫房间,计算清扫路线,避开障碍物,还能自动返回充电。但是,这种机器人吸尘器并不具备阿西莫夫机器人三原则,这是否说明阿西莫夫机器人三原则存在错误?是否表明它可能违反机器人第一原则而实施伤害人类的行为?要回答这个问题,需要从机器人第一原则的具体内容说起。
一直以来,很多人对阿西莫夫机器人三原则倍加推崇,也有不少人认为这些原则存在错误,甚至没有任何意义。人们对机器人三原则提出质疑时,多半会指出它概念不明确。以第一原则为例,其中的几个关键的概念——人、机器人及伤害——并没有给出严格的定义,原则潜在的含义也没有完整明确地加以阐释,这需要结合阿西莫夫作品的很多内容来说明。
一、人
阿西莫夫用机器人系列、银河帝国系列及基地系列小说构筑了规模宏大的人类未来史,前后经历两万载,囊括整个银河系。阿西莫夫的银河系未来史基本上是人类未来史,他的小说中较少出现非人类的智慧生命,他创造的第一种外星智慧生物直到1972年才诞生,但三大系列小说的空间范围仅包括银河系。只有在基地后传《基地与地球》的最后,才借第一基地议员崔维兹之口,略微展望了银河系人类与宇宙其他星系智慧生命相遇时的远景。总的来说,阿西莫夫小说中的“人”,就是银河系猎户座旋臂太阳系行星地球上的“人”,以及他们向其他星球殖民的后代。这对阿西莫夫来说,似乎是一个不言自明的前提。
但很多科学家相信存在地外生命、地外智慧生命甚至地外科技文明,也有的对此进行过最大略的估算。例如按照爱德华·哈里森,银河系曾经及将要出现的科技文明,最高的估计值是1千万个,最低的(也是更现实的)估计值是1万个。在最低估值下,扣除生物学因子中估计的“智慧生物发展出先进科技文明的几率”0.1,可知银河系寿命期内可能有10万个行星存在智慧生命。А·и·奥巴林、в·г·费申科夫也认为,银河系可能有几十万颗行星上会有生命的出现和演化。由于各具备产生生命条件的行星状况不一,并且生命产生及生物进化过程中充满了偶然性,因此存在的地外智慧生命从肉体到意识可能与人类存在巨大的差别。对这种可能性,科幻小说家们有过天马行空的利用和发挥,《智慧恐龙》中的外星智慧生命是小型恐龙的智能版本,《黑暗物质》三部曲中出现过具有智慧的四足、使用种荚轮子行走、形如鹿或羚羊的穆尔法,《计算中的上帝》讲了体形如同巨大蜘蛛的弗林纳人,以及具有两条腿和四只胳膊的吕特人,等等。至于阿西莫夫,当然更有想象的天才,《神们自己》中的“外星人”干脆以半气体的模糊形态存在。如果阿西莫夫的机器人遇到如此形态的智慧生命,大概很难判断他们是“人”,显然,包括机器人第一原则在内的三原则对这些外星智慧生命并不适用。与第一原则只适用于地球人及其后裔相对应的是,在“人类”内部,阿西莫夫并不按照种族、地域、星域、所有权等进行划分。凡是人,都受第一原则保护,并享有第二原则赋予的权利。
二、机器人。
现代机器人学对机器人的定义很多,很难统一。有些机器人学著作列出的定义多达十多种,但被普遍接受的似乎很难找到,机器人学家也承认,机器人目前没有统一的定义,随着机器人技术的发展,今后更难给出公认的定义。人们经常提到的是美国机器人协会(RIA)的定义:机器人是“一种可重编程序的多功能操作机构,用以按照预先编制的、能完成多种作业的动作程序运送材料、零件、工具或专用设备。”“可重编程序”表明,机器人的程序不仅可以编制一次,还可以编制多次乃至任意次;“多功能”表明,机器人具有通用性(万能性),对机构进行改变后,能完成多种工作;“操作机构”表明,机器人应具备操作对象的机构。这个定义非常狭义,仅指工业机器人,这样就将机器人与计算机、自动化机器相区别,也把阿西莫夫机器人等科幻小说中的机器人排除在定义范围之外(阿西莫夫小说中也有类似的工业机器人,但即使是这些机器人,也无法用这个定义加以概括)。
日本工业机器人协会(JIRA)有这样的定义:工业机器人是“一种能够执行与人的上肢(手和臂)类似动作的多功能机器”,智能机器人是“一种具有感觉和识别能力,并能够控制自身行为的机器”。这个定义中的智能机器人,在广泛意义上已经开始包含阿西莫夫笔下的那些机器人,但并不能完全符合。
也有专家从功能角度定义:机器人是“一种拟人功能的机械电子装置”,或者机器人是“有相当部分具有与人类同样机能的机械”。在《Robot Visions》中,阿西莫夫将机器人简洁、概括地定义为“类似人的人造物”。前一个定义强调机器人的功能上拟人,阿西莫夫的定义还同时强调外形上拟人。
阿西莫夫小说中,机器人的真正特征是高度人工智能,在这些定义并没有明显地体现出来。的确,阿西莫夫小说中也出现过不少菜鸟级机器人,它们模样可笑,行动笨拙,认死理,不知变通,但即使是这类机器人,也能理解人类的自然语言,回答人类提出的随机问题,并作出判断,从而决定自己的行为。更高级的机器人,姑且不论那些超级思维机器或者统管世界的“模”,安德鲁、丹尼尔等就已经实现了极端高级的智能。在这一高度人工智能基础上,它们具备了相当自由的意识,开始产生感情,生成出意志,学会了利用人类的弱点,还具有了主动设计谋略的强大能力。安德鲁公开地为机器人争取“自然人”的法律地位,丹尼尔则在暗中操纵一切,从人类第二次银河系殖民初期就开始以渐进的方式影响人类历史发展,到银河帝国末期,他又协助谢顿创建心理史学,策划创建盖娅行星。这些机器人的共同特点就是高度人工智能,它们中最低级的也已具备足够的高度,而最高级的则高到了难以想象的程度。
阿西莫夫的机器人原则就是针对具备高度人工智能的机器人设计、提出的,如果没有相当程度的智能水平,根本不存在适用机器人三原则的问题。如果一个机器人的一切行为完全受到事先编制好的程序控制,那么它的一举一动并不是它自己的行为,而不过是人的意识的确定不移的外化和实现,对人来说,这种机器人本身不需要“遵守”什么规则,只要能编制足以确保安全的程序,并确保这一程序能无故障地运行即可。在这种情况下,安全的保证不是任何加在机器人上的行为规范,而是由人编制的0和1组成的指令必然会得到执行的铁的自然规律。
iRobot公司是美国有名的机器人公司,它的名称就来自阿西莫夫机器人小说集《我,机器人》(I,Robot)。该公司生产Packbot军用机器人及Roomba机器人吸尘器深受美国军方和家庭主妇的欢迎,卖得非常火爆。使用Packbot军用机器人时,需要控制人员躲在安全位置进行操控,进行侦测地雷并排除等工作。Roomba机器人吸尘器有能力记忆房间布局,计算清扫的最佳路线,可翻越或者躲避障碍(包括动物宠物),防止掉落楼梯,还能自动返回基站充电。Packbot军用机器人完全不具备自主能力,如果说它有行为的话,也只是操控着它的人的行为的直接转化,机器人三原则对它实在没有任何用武之地。而Roomba机器人吸尘器的确具备了一定的自动能力,机器人会与环境进行信息交流,它的行为开始具备更大的复杂性,某些时候,使用者已经无法预测它的行为。但是,它没有任何意识,没有独立性,它的行为完全受到事先编制的程序不容转圜的控制,只要它的结构、材料、设计等具备一般家用电器的安全标准,就不需要任何机器人原则作为额外的保障。据说,该公司在被问到其生产的机器人是否遵循阿西莫夫原则时,承认这些机器人并不遵循阿西莫夫原则,而“理由很简单:我们没法把阿西莫夫原则置入机器人中。”这是说,阿西莫夫三原则现在还无法在技术上实现,但即使技术上能够实现,对这样的机器人也无任何必要运用这些原则。
而当机器人具备了一定程度的意识和自主思维能力时,人类不再详细规定(或者根本无法规定)它的一切行为,这时机器人就像人类奴隶一样接受命令,并根据环境等因素自行决定自己的行为,机器人取得了相对于人的主体性。此时机器人的行为对人类而言,将充满偶然性。机器人归根结底仍然受到0和1组成的指令的控制,但其复杂性已经突破特定的限度,产生了不为人类直接控制的新的行为方式。只有在这时,机器人的安全性才不再能够事先预测和控制,才需要机器人在实施任何行为前对自己的行为进行自我规范,才真正提出了对机器人行为进行规范的问题。因此,实体上具备意识、自主性、独立性,行为上具有不可预测性和偶然性,才使得机器人原则具有自身存在的意义。只是因为机器人具有了高度人工智能,才会需要机器人原则对它们加以控制。
这样看来,并不是所有符合机器人定义的机器人都要配备机器人三原则。低级机器人在技术上无法取得主体性,因而不可能成为机器人三原则这种“规范”的主体。回到博文最开始的问题,答案已经非常明显,Roomba吸尘器可以视为机器人,但它并不具备高度人工智能,没有任何必要为它配备机器人原则;由于Roomba吸尘器不具备主体性,也不可能用机器人原则来规范它的行为。对这个问题也可以这样理解:现代机器人学中机器人的定义不同于阿西莫夫机器人的定义,而阿西莫夫在《Robot Visions》中对机器人的定义又不同于小说中那些具备三原则的机器人们所符合的那个以高度人工智能为本质特征的定义,所以,按阿西莫夫小说中提出机器人三原则的潜在含义,这类低级机器人本来就不需要配备机器人三原则。由此也可以看出,那种因为现实中的机器人根本不具备机器人三原则,而认为阿西莫夫机器人三原则不成立的观点,实际上是没有搞清楚阿西莫夫为机器人三原则划定的适用范围。
三、伤害。
在第一原则乃至全部三原则中,最难把握的概念是“伤害”,很多对阿西莫夫三原则的误解,就是由于“伤害”的概念太过复杂。
在阿西莫夫原著中,第一原则有时写作“A robot may not injure a human being ,or through inaction ,allow a human being to come to harm.”,但少数时候又写作“A robot may not harm a human being, or through inaction, allow a human being to come to harm.”第一原则前一部分(即“作为条款”)中的“伤害”,多数时候写作“injure”,有时也写作“harm”。从小说内容看,凡提到对人的伤害,都是指对人的身体或者精神伤害,严重者杀人害命,轻微者损伤人的自尊心,均属对人的伤害,都被第一原则所禁止。同样明显的是,伤害并不包括对人的财产的损害,小说中从来没有因为某一行为可能损害人的财产而导致正电子脑毁损的情况。反过来说,如果第一原则中的“伤害”包括财产损害,则对机器人的毁损意味着对其所有权人、使用权人财产的毁损,意味着对人的伤害。这样,不论机器人实施导致自己或者其他机器人受损害的行为,都违反第一原则,这就使第三原则事实上高于第二原则。
在身体、精神伤害中,又有几对概念需要进行分析,如最终伤害与暂时伤害、绝对伤害与相对伤害、直接伤害与间接伤害、现实伤害与可能伤害等。在对这些成对概念进行取判断、取舍时,方法上无疑是应体现这样的观念,即宁可机器人一无用处,也要确保人类安全。但任何规则都是单一的、跳变的、抽象的、形式的,而它面对的生活现实(这里是假想中的未来生活现实)却是丰富的、渐进的、具体的、辩证的,在很多情况下很难给出唯一的结论。这里仅以最终伤害与暂时伤害为例,来说明这一问题的复杂性。
暂时伤害是指机器人的行为只是暂时造成人的损伤,但最终会给受到损伤的人带来好处,而且这个好处大于或者远远大于此前受到的损伤;最终伤害是指机器人的行为造成人的损伤,这一伤害不会使受损伤的人得到任何好处,或者损伤带来的好处小于或者远远小于损伤本身。按照严格确保人类安全的形式要求,暂时伤害和最终伤害都属被禁止之列,也就是说,不论某个伤害行为是否会带来最终的更大利益,都不允许发生。但按照暂时伤害的定义,如果机器人在可以实施暂时伤害行为时选择无所作为,实际上是放任人的利益受损(有时甚至是人的生命的丧失),因此,合理的界限应该是,绝对禁止最终伤害,有条件地允许暂时伤害。阿西莫夫基本上认可这一界限。《钢穴》中,机器人丹尼尔曾经告诉贝莱,为了人类的长远利益,“我必须做一些可能会伤害你的事”,而贝莱则想到:机器人不得伤害人类,除非这个机器人能证明伤害他最后是为了他好。这个例子也许不够充分,因为它除了体现暂时伤害与最终伤害的区别,更多的是体现出了第零原则的思想萌芽,涉及个人利益与整体利益关系问题。另一个更好的例子是,《裸阳》中索拉利人克罗丽莎提到的两种情况,一是机器人很难为人类实施外科手术,哪怕是为了挽救人的生命(这种情况在其他小说中也多次被提到),二是索拉利世界的“幼儿园”的机器人可以在人类的特殊命令下,揍揍那些调皮小孩子的屁股。
绝对禁止最终伤害,有条件允许暂时伤害,这样也许可以解决一部分问题。但又会引出更多的问题,比如,如何界定何种暂时伤害是可以允许的,何种又是应禁止的?采用何种标准衡量暂时伤害中“损伤”与“好处”的大小?允许实施的暂时伤害所造成的人的损伤,是否应有绝对上限?等等。这类问题说明,阿西莫夫机器人三原则之作为原则,它也只能起到原则的作用,不能奢望三原则可以马上、直接、无中介地运用于机器人世界,要真正达到实用的程度,还需要一整套细则规范予以配合。
其他相关文章: