加载中…
个人资料
亦淡忘09
亦淡忘09
  • 博客等级:
  • 博客积分:0
  • 博客访问:140,883
  • 关注人气:88
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
相关博文
推荐博文
正文 字体大小:

谷贝网平台带你看,制定道德标准,能让AI流淌道德血液吗?

(2019-09-12 16:35:03)
标签:

金融

互联网

  就在刷爆朋友圈的“ZAO”引发AI换脸技术的争议时,包括脸书、谷歌高层代表在内的多名全球与瑞士经济体的代表、科学家、学术界人士聚集日内瓦,研究讨论与数据和人工智能(AI)有关的全球道德标准,微软总裁还提到:“我们必须带着急迫感开始采取措施(制定道德标准)。”

  道德标准,这是一个古老的词汇,带着浓厚的人性色彩。当脸书、谷歌等全球顶尖的科技公司开始感到焦急担心时,很显然,AI作为一项相对前沿的技术,蕴含的道德风险已经越来越大,以至于必须让具备决策能力的机器人像人一样,在感知是非善恶的前提下行事。

  不过在道德风险之外,AI面临着更棘手更底线的问题——法律风险。正如“ZAO”风波所显示的,在让人工智能做出决策前,用数据不停喂养它的过程,本身就是充满危险的。

  首当其冲的就是隐私问题。AI的基础是数据,其中包括大量的用户信息。就如自媒体的算法机制一样,用户的身份、职业、年龄等基础数据,阅读的历史和偏好,都是优化推荐算法的关键依据。

  机器学习的过程,于是形成了一个闭环,越是想要AI的服务能精确地贴合我们的需求,就越需要贡献更多的隐私数据,让自己在人工智能面前成为透明人。

  所以那些呼吁科技向善的互联网公司,总是会免不了更多地向用户索取。“ZAO”的初始版用户协议写道:“您同意或确保肖像权利人同意授予‘ZAO’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利。”从措辞上可以看出,科技公司对用户数据有着一种多么大的占有欲望和尺度。

  当然,AI换脸只是法律风险的体现之一。在“ZAO”之前的6月,微软删除了号称全球规模最大的MS Celeb人脸识别数据库,这不仅是因为它不够道德,更是因为有侵犯隐私和肖像权的法律风险。

  而对国内的用户来说,尽管有FakeApp等换脸工具在先,但“ZAO”的出现第一次系统地让他们意识到,人脸不再只是肉体的组成,早就成为了一种数字化的信息,可以储存在科技公司的后台以供使用。他们害怕的并不是AI,而是使用AI的人,是否会别有所图。

  AI的道德伦理困境,正在于此。一个常见的说法是技术中性,机器本身没有善恶,但它的运用却是在一种道德环境中。

  比如,曾引发争议的DeepNude(深裸),这款“一键脱衣”软件的创作者宣称,“我是一个技术爱好者,不是偷窥者”,然而该软件却像病毒一样扩散,法律漏洞无限放大。

  可见,那些AI的创造、操控者,同样需要一套道德标准,告知如何使用,以及使用在哪些场景之下。

  这是一个棘手的问题,因为科技公司总是会寻求突破,在那些未开垦的处女地领域创造性地使用AI。只不过这种探索思维,正在面临越来越多的争议——当斯坦福大学发现可以用AI算法,通过照片识别同性恋时,自然免不了遭遇这一群体的激烈控诉。

  中国的《网络安全法》和《信息安全技术个人信息安全规范》,在信息采集方面,都提到了合法、正当、必要等原则,不过现实中的界限往往不那么明确。正如AI的运用,缺少明确的禁区地带一样,法律和道德的双重风险,让AI像无头苍蝇一样屡屡踩雷。

  而相较于让AI的操控者遵守法律、道德,适度运用,以保证人工智能的行为后果,在既定的边界之内,一个更困难的问题在于,如何让那些具备自我决策能力的人工智能,能够像人类一样作出足够道德的决策和判断?

  道德本身是相当抽象的,标准处在不断的进化之中,它的基础是社交网络下内心的那些情感活动。比如随地吐痰被周围人看到,会带来一种羞耻感,进而促使改正。

  将人类的这套“规矩”,灌输给靠数据喂养起来的AI,让它具备情感,懂得是非善恶,无疑是一件充满想象的事。毕竟就像和柯洁对弈的阿尔法狗一样,人工智能在多数时候,目的是提供最优解决方案,未必是最道德的方案。而最优方案,有时候恰恰面临着道德陷阱。

  以经典的“电车难题”为例,假设一辆失控的有轨电车正驶向五个被捆绑在一起躺在轨道上的人,拯救他们的唯一方法是扳动道闸,让电车驶向另一条轨道;与此同时,另一条轨道上躺着的一个人就会因此丧生。你此刻正是手握道闸的那个人,会如何抉择?

  现在这个问题随着AI的出现而升级——一辆载着乘客的无人驾驶汽车,在面临无法避开的撞击危险时,该优先保证乘客安全,还是保证撞击所发生的全部伤亡最小化?

  将这些人类目前无解的难题交给AI去处理,同样避免不了分歧。而且更重要的是,法律以及道德约束的存在,总是可以让人为决策买单,但人工智能,我们甚至都无从判定,它到底是否具备主体资格、具备法律意义上的行为能力。

  当然相对于AI被操控者违规使用的风险,人工智能自身“缺少道德”,更多只是远虑。所以道德标准的指向,主要还是创作、操控者。换句话说,要通过制定AI的道德标准,让他们在开发、使用AI的过程中具备“道德血液”,保证产品有足够的道德考量。

  值得一提的是,去年欧盟委员会曾提出人工智能的7个关键要求,包括人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉以及问责机制,这似乎是一种不错的尝试。

  但话说回来,科技公司为了占领风口,总是会倾向于积极地索取,比如隐私问题。所以对科技公司来说,给人工智能注入道德元素时,将会面临着资本的反制,这要求它不能为自家的AI产品施加过多的限制,削弱它的功能。

  值得一提的是,谷歌今年3月成立的人工智能道德委员会,存活了10天左右就宣告解散。很显然,制定AI道德标准,最大的难关正是这群提出建议的科技巨头自身。

0

阅读 评论 收藏 转载 喜欢 打印举报/Report
  • 评论加载中,请稍候...
发评论

    发评论

    以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

      

    新浪BLOG意见反馈留言板 电话:4000520066 提示音后按1键(按当地市话标准计费) 欢迎批评指正

    新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

    新浪公司 版权所有