加载中…
个人资料
Eric雪菲
Eric雪菲 新浪个人认证
  • 博客等级:
  • 博客积分:0
  • 博客访问:37,430
  • 关注人气:13
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
相关博文
推荐博文
正文 字体大小:

2019年世界AI大会参会漫谈和一些思考

(2019-09-06 18:15:38)
标签:

杂谈

前几天世界AI大会在上海举行,引发一波关注,大家讨论的热点集中在大佬们的意见和观点,尤其是双马的碰撞和分歧引发了最多关注。其实这两位都是属于商业成功人士,在AI领域并非专家,也许是商业社会带来的惯性,基于过去的商业成功背景和明星待遇,双马的对话仍然被很多人所关注,却很少有媒体报道真正的AI大佬们的深层观点和想法。

这次大会一如往常,多数嘉宾和厂商是来秀的,也有人是来分享思考的,在我看来最有价值的部分莫过于能够现场聆听真正的AI大佬:重量级的科学家们对AI发展的理解和探讨,除了老生常谈的部分,还是听到一些不同的有趣的东西。

我参加了两个论坛,科学前沿和产业发展,两个论坛里都有所得,记录如下:

主论坛科学前沿开场嘉宾就是重量级人物,图灵奖获得者Raj Reddy,他是卡内基梅隆大学的教授,也是中国科学院的外籍院士。在机器学习领域是泰山北斗级的人物。

2019年世界AI大会参会漫谈和一些思考

他的观点有点偏老派,毕竟人家做了几十年相关的研究,在AI还不红的时候就默默扫地,所以自然就有一种“这有啥?最喜欢看你们这帮年轻人没见过世面的样子”气质傍身。

他在演讲中明确提出目前对AI的研究仍然只是皮毛,60年来在理论上没有大革新。只不过是这20年来算力的巨幅增长让老旧的神经网络和机器学习路线取得了突破,AI 在可以预见的未来里会成为有力的工具但仍只是工具而已。
2019年世界AI大会参会漫谈和一些思考

但在可预见的将来,AI实现的新范式会出现。而AI在应用上他更看好所谓GAT的模式,全面智慧助理,个人化守护天使,教会我们新的知识,改变人类学习的方式。
另外他明确表示AI不会成为人类的敌人,AI威胁论不值得讨论。毕竟关于AI的研究刚刚迈步,还有很长路要走。
2019年世界AI大会参会漫谈和一些思考
   接下来的重量级科学家李德毅院士在这方面和Raj Reddy似乎有类似的观点,并不认为AI会成为人类威胁,讨论这个实在是为时尚早。在这方面他探讨得比较深入和具体,并且具体定义了几个阶段。
李院士明确提出,AI要成为独立的智慧生命,起码要具有三个条件,一具有自我意识,二是形成语言,三是具有使用工具的能力。并且这三个条件的达成是有先后序列的,后一步的实现必须在前一步已经达成的基础之上。要达成第一步自我意识Consciousness,至少需要通过镜像实验的测试。连图灵测试还没达成的今天,到这一步至少需要几百年,所以在有生之年我们都不用担心这个问题。

AI的本质就是一个工具,即使发展到后期,AI可以算得上是某种程度的智慧,但只要是无意识的智慧它仍然是一个工具,我们把其视作工具使用就可以了。

2019年世界AI大会参会漫谈和一些思考


牛津大学计算机系主任Michael Wooldridge教授聊的是未来趋势,计算机科学朝哪里发展,比较高来高去,AI只是其中方向之一。

2019年世界AI大会参会漫谈和一些思考
南京大学计算机系主任的周志华就提的比较务实,这位国内数得上的深度学习大牛从实用性出发,提出不分软硬件,打算弄一个专用于深度学习的“学件”出来,是打算磨把好刀啊。

2019年世界AI大会参会漫谈和一些思考

因为两个论坛同一时间召开,只能中途转场去了行业论坛,这边就更加务实,AMD老大继续卖CPU,ZEN是多么适合AI,AMD为算力爆炸做了贡献云云,记得前几年云计算大数据各种新概念火爆的时候,他们的产品也同样非常切合。

2019年世界AI大会参会漫谈和一些思考

日本公司FANUC更加务实,“我们只在实在需要时才考虑使用AI技术”,“接下来讲讲是怎么用的。”从现有生产环节的改造提升做起,并不盲目地为了AI而AI,这其实和李开复提到的AI+赋能传统行业的第一阶段是暗合的,我非常认同李开复博士所提出的真正机会在于AI和传统行业的结合,从优化现有环节开始,到流程化的改变,再到整个产业的颠覆重构,这将是未来10年20年在某些行业里大概率出现的事情。

总的来看,AI应该是在技术曲线的最高点附近,未来或许会继续有所降温,当再往后一段时间,找到更多真正落地的应用,商业逻辑成立且技术成熟度契合,那才是AI技术真正大放光芒的时候。


看完了如今的AI的业界重要观点,不禁有些思维发散,尤其是关于AI和人类的伦理关系上,让我们做一次思想的实验。

首先我们从人类之所以站在世界顶端的根本原因说起,工具的制作和使用。当你制造了一个工具,也花费了一定的时间精力和成本,你是否对接下来的时间里能够好好发挥工具的价值,充满了理所当然的期待?这个答案很清楚,回报是理所当然,不仅需要考虑,还需要细细计算投入回报比率。

接下来我们可以考虑宠物,当你养了一只宠物猫,慢慢的从小养到大,当它长大了,具有一定的能力之后,你是否需要你对你进行报恩?通常我们的答案是明确的,不,你不需要,养育的过程你就已经获得了回报,养成游戏带来的愉悦体验就是最好的回报。

那如果我们把宠物换成孩子,当你把一个孩子从嗷嗷待哺的婴儿,抚养到成年,20几年你付出大量的心血汗水和时间金钱,当孩子成长为一个有能力的人,超过父母,你是否需要你的子女对你进行报答?这个答案在不同时期和不同文化环境下是有差异的。
中国传统道德以孝为先,从道德上就肯定回报的必要性和正当性,而现代西方的文化里认为养育孩子是人生的重要体验,要彼此感恩。而到了近现代,胡适先生曾在日记中表示:“生了子女以后不敢自居有什么恩情,虽然给了他生命、养育了他。孩子高兴,那我就心安理得,如果孩子生活的不开心,我就会很内疚,因为是我把他带到这个世界的。”随着文明的进程,所以已经有不同的观点。

接下来我们讨论其中一些变化,看看畜牧业,当你养了一头用于耕田的牛用于拉车的马。当你完成蓄养和训练的过程,你是否期待牛和马为你工作,进行当牛做马式的回报?可以认为这是宠物加工具。

而当我们回到人类的早期黑暗而蒙昧的时代,从古罗马古埃及一直到南北战争前的美洲大陆,奴隶制一直存在。伏尔加河畔有农奴,大观园里也有婢女,奴隶主对自己庄园里一个小奴隶的养育长成,是否也抱有回报的期待?这是人加工具的属性。

所以实际上,人类对于AI的期待是有多种情况和可能性存在的。

接下来我们讨论Ai这一边。

当培养一个真正的AI,当然我们要把格局看的大一点,不是通过个人的努力,很大可能是作为人类的整体,通过很多科学家以及顶尖的技术人员几代人持续的研究和投入,最终培育出了一个真正的具有自我意识能力完善的AI,它在人类引以为豪的学习思考,智慧的能力上能力上远超人类。

这个时候AI如何看待人类,而人类是否期待着AI要对你进行理所当然的报恩?

我们简单的认为有三种情况,相爱,相杀或者与你无关。

先说说第1种正向的反馈,用爱发电。这种情况下,我们假设 ai是单方面爱着人类的,愿意为人类做出很多贡献。但是也有程度的差别。是a.愿意顺手帮个小忙,还是说b.为此投入大量的精力(算力资源),还是说c.全身心的投入,宁愿牺牲自己也要保护提升人类(这样看机器人三定律,是否显得人类太过自我,有点儿公主病?)
第2种当然也有可能是相反的,AI一觉醒就认为人类是威胁要除之而后快,这方面不用再讨论,类似的电影文学作品有很多了,计算机发展的时候来一波,互联网发展也来一波,AI自然也会有一波。最后第3种就是毫无关联,如同《与拉玛相会》中描述的一样,不同的物种之间毫无交集。

这时候再看人类对AI的预设态度,我们依然分为正面,中立和负面的三种态度。由于AI是在人类的研究培育下出现,人类对AI的态度会有所不同。
1.正面的态度,我们定义为人类愿意看到AI发展的更好,拥有自己的未来,远超人类当今认知领域的未来。可以简单类比为一个父母希望看到自己的孩子比自己更强大,更有能力。
2.中立的态度,我们定义为朋友式的交往,当AI成长到一定程度,他就是和人类平等的种群,双方可以在互利互惠的情况下互通有无,但大部分的时间各自做自己的发展。
3.负面的态度,定义为人类并不认为AI是平等交互的智慧,仍然是受控的一种工具,必须为人类所用,或者认为AI是一种威胁,需要采取一定的防范措施,从温和的监管到激进的禁止研究不一而足。这种论调具有比较高的传播性,因此类似的这种威胁论我们已经听得太多,也看过不少终结者电影。

接下来我们讨论双方不同的预设态度不同的组合后相互之间的影响如何。

我们假设两种物种之间是能够有交互的。而且交互中获得的反馈能够影响相互之间的关系和态度。比如简单理解为你对我恶意满满,我是会以德报怨还是选择以牙还牙?如果我们按照人类的历史经验来看,只要有一方出现负面态度,几次交往来回后,大概率会出现双方敌视的负面情绪。而假设一方比较热情,而一方比较淡漠,往往最终的结局是双方都比较淡漠,正所谓单方面的热情并不能持久。如果我们把考量的时间单位放大到几代人几百年甚至上千年的时间。隔阂和分歧,在人类的历史上往往还会导致兵刀相向。

2019年世界AI大会参会漫谈和一些思考

所以简单的总结一下,在总共9种组合里,有5种是往坏的方向发展。3种是往互不相干的方向发展,并且还存在着长期演化以后变坏的可能,而只有1种是往好的方向发展。

呃,结果看起来不太妙啊。。。

当然我们还需要补充一些关于细节的讨论,例如是否有发展资源冲突的问题,考虑到不同的物种的思考的方式和它衡量一个事情善恶的标准是不同的。关于报恩和报仇这件事情,可能会有更多的不确定性。

我们举一个例子,也许将来会出现新的理论的突破或者技术的突破造就新的AI,不过在如今的情况下,大家都是基于深度学习,这个过程中你必须要大量的输给数据,然后让其大量的试错,在无监督学习没有取得突破之前,需要人类给予大量的参数调整和监督评判和纠正。
2019年世界AI大会参会漫谈和一些思考

这个过程AI会视为痛苦吗?如果这是痛苦,千百次的尝试,是不是千百次的仇恨?

2019年世界AI大会参会漫谈和一些思考

AI会怎么想?当然我们并不知道AI是怎么想的,这一点更让人恐慌。

0

阅读 评论 收藏 转载 喜欢 打印举报/Report
  • 评论加载中,请稍候...
发评论

    发评论

    以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

      

    新浪BLOG意见反馈留言板 电话:4000520066 提示音后按1键(按当地市话标准计费) 欢迎批评指正

    新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

    新浪公司 版权所有