加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

可解释人工智能

(2024-11-26 05:53:02)
标签:

文化

杂谈

分类: 闲翻闲书

闲翻闲书第46篇

可解释人工智能

《可解释人工智能导论》,探讨的是如何发展负责任的人工智能问题,希望通过“可解释”,增加人与人工智能的互信关系,形成高效的人机协作,建设一个人机共生共存的理想社会。

人与人之间要建立互信,一个要沟通解释,二是要看行动效果。也可以说需要说法与做法上的高度一致性。

人与人工智能的关系也基本一样,一个要可解释,一个是要有稳定性。

比如自动驾驶汽车,要与人建立信任关系,就需要让人理解自动驾驶汽车的决策机制,还要让人看到它在化解重大风险时的优异表现。

由于机器学习基本上都是基于变量之间的关联性,而关联性又不好解释,而且不够稳定,因此研究人员只好尝试利用因果关系来增强稳定性与可解释性,产生了基于因果启发的稳定学习与反事实推理。

人与人之间有类似的价值观与认识论,沟通起来就会比较顺畅,即使来不及沟通,也不至于产生大的误会。通过与或图模型,使得人工智能通过模拟人类认识判断事物的方式来做出判断与行动,提高模型与人类认知结构的一致性,就成了增强其可信度与可靠性的一种重要方法。

书中还对深度神经网络,分别从“对神经网络的事后解释”和“可解释的神经网络”两个方向,介绍了一些可解释性研究成果。

我是一个科技“菜鸟”,更是人工智能“白丁”,读这本书相当吃力。虽然费力不小,可还是吃透了了。最让我纠结的是,人工智能真的只有可解释,才能可信任吗?

目前先进的人工智能,实际上就是“黑匣子”。以后的人工智能,只会“黑上加黑”。但它和我们人类一样,都是不能被完全解释的。人的行为,不好预测;事后解释,无法统一。这便是人的重要特点。能预测、可解释的是机器,不是人。完全可预测可解释的是人造机器,不是人工智能。

每个人都是一只“黑匣子”,一个人很难预知另一个人当下的心理状态与具体行为。当初,没有人可以预判“普哥”会对“乌弟”动武。而事后的解释,又是五花八门,各说各话。当下,也没有人能够知道“普哥”会不会动“何”。对动或不动“何”的解释,也是各执一词、多种多样。

人的行为,既可解释又不可完全解释,因此人与人之间有信任,也有不信任。但是,人们一直没有放弃破解自身的“黑匣子”,而已经取得的成果恰恰又助力了人工智能的发展。

人工智能的发展,大概也是如此。我们既要接受它的许多不可解释,又要努力扩大可解释。并在信任与不完全信任的矛盾中,来进行人机交互。

0

阅读 收藏 喜欢 打印举报/Report
前一篇:郑州要逆天了
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有