加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能专家斯图尔特·拉塞尔:机器人必须有“正确的价值观”

(2016-08-18 09:43:17)

  来源:《浙商》杂志 作者:牛金霞

  机器人未来发展的关键是,人类要将是与非、好与坏的常识和价值判断标准教给机器人。未来,衣食住行这种物质上的需求,都可以通过机器生产来满足,而人类将更多从事通过沟通满足他人精神需要的工作。 

  “将人类的价值体系教给机器人我认为至少需要20年的时间,如果我有一家机器人公司,未来想研发出能一起出去玩、一起逛街的机器人,我唯一需要的就是赋予它一个价值体系,未来也肯定会有专门销售价值体系的公司。”斯图尔特·拉塞尔说。 

  英裔美籍计算机科学家斯图尔特·拉塞尔是美国加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授,同时他还是人工智能领域“标准教科书”——《人工智能:一种现代化方法》的作者,被誉为“世界顶级AI(人工智能Artificial Intelligence缩写)专家”。 

  《浙商》记者在加州大学伯克利分校的办公室见到了他。拉塞尔坦承,跟比尔·盖茨、埃隆·马斯克和斯蒂芬·霍金一样,自己也是“人工智能威胁论”中的一员,他甚至跟斯蒂芬·霍金联合署名发表了一篇关于警告人工智能的危险的文章。但是,拉塞尔又反复强调,公众对这些观点有太多误解,他所担心的其实是人工智能实现“超智能”后对人性和社会的影响。 

  确保人和机器拥有共同的目标 

  《浙商》:机器人会取代人类、甚至杀死人类的声音不绝于耳,你怎么确定人工智能未来会在人类的掌控之内,为人类服务呢? 

  拉塞尔:公众对人工智能有太多误解,人们总是不自觉地把人工智能和杀人联系在一起,事实上,这个领域可没有人研究杀人机器人。还有一个原因是,媒体没有向大众解释清楚人工智能到底是什么,媒体只是一天到晚在说人工智能总有一天会失控,或者人工智能会有自我意识……这些都是不可能的。 

  这个问题其实早在1960年就被提出来了,而人工智能的危险到现在也没有发生。其实,人工智能会带来危险的一个很重要的原因是,人类很不擅长表达自己想要什么。然而在和机器人交流时,人类的措辞必须全面而准确。当你对一个人说:“你能找到消灭癌症的方法吗?”对方理解这意味着什么,但是我们告诉机器人时,就需要清楚地申明,我们的目标是:“在保存人类的前提下消灭癌症”。 

  另外,很多人习惯从今天还不够成熟的人工智能系统来推断未来的人工智能,自然也会得出不成熟的结论。而且,大多数人都不理解未来机器人会拥有的超智能是什么,超智能不同于我们以前见过的任何东西。 

  《浙商》:那到底什么是超智能? 

  拉塞尔:举例来说,如果以后机器人能够理解人类的语言了,那意味着什么呢?意味着一个机器人能在短时间内阅读和理解人类写的任何东西,人类所知道的一切它都能理解了。 

  这样一台真正“博学”的超智能机器自然会想出很多你从未想过的东西,以你根本想不到的方式和计划帮你实现目标。关键就是要让机器人准确理解目标到底是什么,赋予它一个具体化的目标。 

  现在有两个问题:第一,我们要花多久才能造出这样的超智能机器?第二,我们如何把这些机器控制在安全范围内,确保它们“循规蹈矩”?比尔·盖茨、埃隆·马斯克和我都认为,造出了超智能机器后,解决第二个问题就很关键——要确保我们给机器人的目标高度符合人类的目标。 

  如何教给机器人正确的价值观 

  《浙商》:但是人类关于同一个问题经常争论不休,在目标上无法达成共识怎么办? 

  拉塞尔:机器人可能会给出一些解决问题的方案,但是人类可能会不认同,机器人首先需要明白这一点。这种情况下,正确的做法应该是人和机器进行沟通。当然,为了让机器充分理解人类想要的东西,我们首先需要解决语言障碍的问题。这也是我现在正在做的事。我的团队正在研发能让机器学会人类基本价值体系的方法。 

  《浙商》:您认为多久才能教会机器人这些人类常识和基本的价值判断体系? 

  拉塞尔:如果说要10年时间才能解决机器人理解人类语言的问题,我觉得需要20年才可以解决价值体系这个问题。如果我有一家机器人公司,未来想研发出能一起出去玩、一起逛街的机器人,我唯一需要的就是赋予它一个价值体系,未来也肯定会有专门销售价值体系的公司。 

  最现实的案例是,无人驾驶汽车就需要一个“价值观”。因为无人驾驶汽车需要在安全和速度间权衡,在紧急情况下需要在撞伤乘客、撞伤行人、撞坏车之间权衡,权衡这一切就需要有个价值判断准则。因为无人驾驶汽车是在真实世界运行的,不像工厂里的机器人,是关起来、受控制的。 

  家用机器人可能也会出现类似的情况,要真正信任它的服务,它必须要“懂”你,它得知道你有男朋友、有父母、是某公司的一名员工等等你所有重要的人际关系,需要知道有很多东西你会和男朋友分享,但不会和你的同事分享等。若想做出正确的选择,这个机器人必须懂你的价值体系,理解它的所作所为到底能不能让你开心。 

  未来更看好人际交流工作 

  《浙商》:所以您的意思是在机器人学会人类的价值体系之前,人类的很多工作是不会被机器人取代的?  

  拉塞尔:很多现在“把人当机器用”的工作,以后可能就会彻底消失。而需要直接沟通和交流的工作反而不会被机器人取代,比如教师、护士等。至少,我不想让自己的孩子由一个机器人教导,也不希望自己生病的时候身边没有一个人类护士来陪伴照料。 

  长期来看,衣食住行这种物质上的需要,都可以通过机器生产来满足,而人类将更多从事通过沟通满足他人精神需要的工作,也就是说,未来会有很多新工作涉及人际互动。比如,未来可能会有专门上门陪你吃午餐的人,背后的逻辑是:虽然我只是和你一起吃个午饭,但我既聪明有趣又有同理心,而且我付出了时间,所以你会心甘情愿地付钱给我。 

  (汤天祎在本文翻译上亦有贡献) 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有