标签:
杂谈 |
“
3月9日,一场人类与机器之间的围棋比赛引起了世人的关注,人工智能系统AlphaGo与人类围棋高手李世石的第一场比赛,以机器的胜利结束,在小编写这篇文章的时候,第二场比赛刚刚结束,计算机再次获胜,比分变为2:0。
1
3月9日,一场人类与机器之间的围棋比赛引起了世人的关注,人工智能系统AlphaGo与人类围棋高手李世石的第一场比赛,以机器的胜利结束,在小编写这篇文章的时候,第二场比赛刚刚结束,计算机再次获胜,比分变为2:0。
其实人机大战由来已久,1997年5月11日,IBM公司的深蓝计算机在国际象棋比赛中击败了人类第一棋手——加里·卡斯帕罗夫。既然机器战胜人类已经不是新鲜事了,为什么此次的人机大战还是引起了如此高的关注度呢?
其中一个原因就是围棋的难度。围棋的可能性比国际象棋要多出很多,所以所需计算量不是一个级别,围棋棋盘横竖各有19条线,共有361个落子点,双方交替落子,这意味着围棋总共有10^171(1后面有171个零)种可能性。而科学家估计宇宙中的原子总数才10^80(1后面80个零)。围棋的可能性比宇宙中原子总数还多。所以对机器来说,围棋的难度绝对是比国际象棋高了不止一个级别。这也是为什么在国际象棋领域战胜人类的19年后计算机才第一次在围棋项目上赢过人类,因为难度实在太大。
2电影中的人工智能
在网友的对此次人机大战评论中,不乏对人工智能逐渐强大的担忧,有网友开玩笑说,恐怖的不是电脑战胜了人类,而是电脑故意输了。不少网友也提到了诸如《我,机器人》,《终结者》,《黑客帝国》,《2001太空漫游》这一类电影,这几部电影中的人工智能虽形式不同,但发展到最后都产生了自我意识,并与人类分庭抗礼,有些甚至导致人类的灭亡。
1968年的电影《2001太空漫游》作为教科书式的科幻启蒙电影,除了夸张的艺术表现手法,比如开头和偏重长达3分多钟的完全黑屏,还有那条五彩斑斓的时光隧道,之外,影片超越时代的预见性,也是其被奉为经典的原因。
影片中有人类登月的情节,而就在电影上映后的几个月,美国人真的登上了月球;影片开头的空间站,现在也已变为现实;空间站中宇航员使用的平板电脑,已经被苹果的iPad实现;视频通话现在也是可以轻松实现。这些科技在现在看来并不稀奇,而在1968年,这些技术和产品都还没有被实现。
这些都不是重点,真正让我小编我脊背发凉,细思极恐的是影片中的这样一个桥段。
宇航员鲍曼和操控着整个飞船的智能电脑HAL9000在下国际象棋,结果鲍曼被HAL打败。29年后,现实世界中,IBM的深蓝计算机打败人类国际象棋冠军。值得一提的是,HAL这个名字的每个字母,都是IBM三个字母的前一个字母。
荧屏上的HAL就是通过这样一个红色的摄像头和机械感十足的声音与人类交流的,你有没有想起Siri?
3
对于人工智能的思考不禁让我想起汽车界的人工智能——无人驾驶。虽然和AlphaGo还有深蓝的形式不尽相同,但这项技术也是人工智能的一种,由计算机收集路面信息,代替人类进行思考,做出驾驶判断。
围棋有着1^171(1后面171个零)种可能性,计算机证明了自己可以在这个方面战胜人类,但道路驾驶,情况更为复杂,不确定因素十分多,突发事件也非常多,而且无人驾驶牵扯人身安全,所以其难度不比围棋低。
目前Google和百度都在积极地进行无人驾驶的实验。
前段时间百度宣布在公共道路测试了其无人驾驶系统,并未发生任何事故,安全完成测试。
其实在Google和百度这些互联网公司研究无人驾驶技术之前,各大汽车传统主机厂也在这方面进行了很多探索。
无人驾驶一直看起来十分高大上,似乎没有出现过任何差错,然而前几日谷歌无人驾驶的首次事故将其拉下神坛。
这让人不禁反思,当车辆遇到车祸时,无人驾驶系统肩上负担起生命的时候,系统该作出何种选择?Top Gear主持人Jeremy Clarkson在测试宝马无人驾驶系统时也提过这样的问题:如果无人驾驶系统遭遇车祸,一辆大货车翻倒在路中央,这时制动已经来不及,可以选择冲上人行道,但人行道上有行人,如果选择撞卡车,那么车子里面的你将面临生命危险,而如果选择冲上人行道,你的性命得以保全,而要牺牲行人的生命。
计算机在做这样的选择时,就很有可能要参考“机器人三定律”。这个概念最早在1942年由阿西莫夫提出。
机器人学三大法则:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
虽然截至2006年,三定律在现实机器人工业中没有应用,但很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。
那么回到我们之前的问题,这个时候无人驾驶系统做出任何一个选择都会违背第一条法则,所以这种情况下计算机无法做出选择,这也是三大法则的一个漏洞。
为了弥补这个漏洞,后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
这里提到了整体利益,那么无人驾驶系统这个时候就会做出选择,哪一方对人类整体利益小,就应该牺牲哪一方,而整体利益这种连人类自己都搞不清的概念,机器人怕是也不那么容易搞定。
这里引用威尔史密斯拍摄《我,机器人》是说过的话作为结尾:“机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”