加载中…
个人资料
蔡阳的微博
蔡阳的微博 新浪个人认证
  • 博客等级:
  • 博客积分:0
  • 博客访问:99,408
  • 关注人气:1,871
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

挑战人工智能的监管原则

(2018-08-12 22:56:26)
标签:

杂谈

挑战人工智能的监管原则

挑战人工智能的监管原则


 人工智能目前的监管原则,必然会面对更多的挑战。

 首先是透明性原则。透明性原则要求人工智能技术公司公开自己的源代码,以便让包括监管机构和媒体在内的人可以查看这些代码,防止损害公共利益的技术。以人工智能技术的复杂性,这样做起到的监督效果不一定好,反而会使得竞争对手更容易偷走这些技术,损害开发者的利益。

 其次是可解释性原则。可解释性原则指的是,技术开发者需要能够向终端用户解释他们的算法,或者只使用那些能够解释清楚决策机制的算法。欧盟就把算法可解释性作为评估人工智能技术风险的一个主要指标。欧盟的《通用数据保护条例》(GDPR)规定,一个自然人有权获得关于算法决策机制的“有意义的信息”。

 这项原则虽然看似合理,但很难用在人工智能领域。因为,一个算法越复杂,它的准确性就越高;但是越复杂,也就意味着它越难以解释清楚。而在一些重要的人工智能技术领域,比如自动驾驶,如果要为了可解释性牺牲技术的准确性,结果就是灾难性的。

 最后一个流行的策略是,建立一个类似于食品药品监督管理局这样的人工智能监管机构。特斯拉CEO埃隆·马斯克就是这个策略的支持者。但是,人工智能技术不可一概而论,它的危险性其实主要取决于技术的应用场景。不能仅仅因为某个低风险的产品使用了算法,就对它监管。这样会限制公司使用人工智能技术的能力和意愿。

 既然这三种策略都不合理,怎么做才是合理的呢?可否提倡:算法责任原则。根据算法责任原则,公司需要验证自己的人工智能系统是不是按照设计意图运行的,能不能防范有害结果。这样做的好处是,它不要求公司公布源代码;不需要解释算法的决策机制,从而减缓技术进步;而且,它可以把监管责任分散到各行业的监管机构手里。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有