挑战人工智能的监管原则
人工智能目前的监管原则,必然会面对更多的挑战。
首先是透明性原则。透明性原则要求人工智能技术公司公开自己的源代码,以便让包括监管机构和媒体在内的人可以查看这些代码,防止损害公共利益的技术。以人工智能技术的复杂性,这样做起到的监督效果不一定好,反而会使得竞争对手更容易偷走这些技术,损害开发者的利益。
其次是可解释性原则。可解释性原则指的是,技术开发者需要能够向终端用户解释他们的算法,或者只使用那些能够解释清楚决策机制的算法。欧盟就把算法可解释性作为评估人工智能技术风险的一个主要指标。欧盟的《通用数据保护条例》(GDPR)规定,一个自然人有权获得关于算法决策机制的“有意义的信息”。
这项原则虽然看似合理,但很难用在人工智能领域。因为,一个算法越复杂,它的准确性就越高;但是越复杂,也就意味着它越难以解释清楚。而在一些重要的人工智能技术领域,比如自动驾驶,如果要为了可解释性牺牲技术的准确性,结果就是灾难性的。
最后一个流行的策略是,建立一个类似于食品药品监督管理局这样的人工智能监管机构。特斯拉CEO埃隆·马斯克就是这个策略的支持者。但是,人工智能技术不可一概而论,它的危险性其实主要取决于技术的应用场景。不能仅仅因为某个低风险的产品使用了算法,就对它监管。这样会限制公司使用人工智能技术的能力和意愿。
既然这三种策略都不合理,怎么做才是合理的呢?可否提倡:算法责任原则。根据算法责任原则,公司需要验证自己的人工智能系统是不是按照设计意图运行的,能不能防范有害结果。这样做的好处是,它不要求公司公布源代码;不需要解释算法的决策机制,从而减缓技术进步;而且,它可以把监管责任分散到各行业的监管机构手里。