加载中…
个人资料
蔡阳的微博
蔡阳的微博 新浪个人认证
  • 博客等级:
  • 博客积分:0
  • 博客访问:101,288
  • 关注人气:1,871
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能网络化时代的伦理与法律1

(2022-06-13 21:50:04)
分类: 学习
人工智能网络化时代的伦理与法律1

在今天,AI正在全面介入我们的生活:购物网站上推荐给你的商品,短视频和新闻软件推送给你的消息,都来自AI算法;手机语音技术和人脸识别系统,都是AI的分支;AI可以写诗,可以作曲,可以写新闻,甚至还可以陪你下棋、为你开车。科学家们还在尝试让AI做更复杂的事情,例如,从医学影像中判断癌症、把分子组合来开发新药、为法庭审判寻找判例,等等。
随着AI能力的不断增强,它将会成为我们生活中不可分割的一部分,就好像如今的智能手机已经成为手的延伸。一旦AI的行为与人类的利益发生冲突,比如造成犯罪或者社会损失,必须有人来为此负责。你可能觉得这是杞人忧天,AI怎么会犯罪呢?
举个真实的案例:2018年,日本发生了一场车祸。驾驶员打开了汽车的自动辅助驾驶功能,但车撞上了一辆停靠在路边的面包车,导致一人死亡、两人受伤。法院认为,无法判断这起车祸的起因是自动辅助驾驶系统故障,还是超出系统能力范围,但有证据表明驾驶者当时非常疲倦,已经无法正常驾驶,因此,驾驶者应该负主要责任;而驾驶者的家属则认为,在这起车祸中,自动辅助驾驶系统同样应该承担责任。
AI将影响我们未来生活的方方面面,而通盘考虑、及早拟定对策,将会是保障我们生活安全和品质的唯一方式。
归纳了三个要点:
第一,网络化为什么会是AI未来的发展方向?以及如何治理才能让所有人都从AI网络化中受益?
第二,AI将会如何不动声色地影响我们的生活?它是否会滥用我们的隐私和个人数据?在法律和规则上,我们应该如何防止这些滥用?
第三,当AI牵扯到刑事犯罪时,法律应该如何判断?当AI导致了生命的损失,谁应该承担责任?
AI就是让机器去做那些过去只有人才能做到的事情。无论是画画、写诗,还是下棋或者听懂人类语言,都是AI的研究领域。
AI网络化的本质,是AI的使用者不仅可以自己设置,也会接受别人的设置,而这种设置有时甚至是难以察觉的。我们不知道自己的数据会被哪些AI拿去做了原材料,也不知道这些AI又和哪些其他的AI发生了关系。虽然这些联结在一起的AI,会提供更强大、更便利的功能,但带来的变化也是难以预料的。
联结在一起的AI可能会形成一个隐蔽的“黑箱”,我们知道它的输入和输出,但是不知道它的内部是如何加工转化的。因为错综复杂的联结关系和联结数据,网络化的AI可能会做出让我们意想不到的决策。我们没办法理解“黑箱”内部的运作原理,也没有办法判断它到底是出了故障,还是输入的数据错误,还是它本来就会做出这样的决定。
作为AI网络化时代的用户,我们的隐私、个人数据、甚至是人身安全和生活方式,也都将会受到不同程度的冲击。我们的个人数据被各个大型互联网企业收集,存放在网络当中,网络化的AI将会针对我们的个人数据做出判断,暗地里为我们施加各种各样的影响。
虽然我们期望AI在各个领域改善我们的生活,但也需要提防它可能带来的危险,并预先考虑如何治理。为了避免AI做出错误决策,对我们的生活施加不必要的负面影响,我们需要建立一套所有人都共同遵循的规则和法律,来让网络化的AI处于可控的状态。虽然AI网络化会带来大量数据的飞速流动,并在这个基础上提升整个人类社会的智能程度,但我们还是要考虑,这些变化所需要付出的个人和社会成本问题。
今天我们能看到,一些老人、残疾人或者文化程度较低的人,跟不上信息时代发展的步伐,扫描二维码、进行手机支付、填写微信小程序,对他们来说是难以完成的任务。当AI广泛应用之后,这类情况可能会变得更加普遍。然而,社会的发展,不应该以牺牲一部分人的基本生活为代价,技术的发展应该提升所有人的生活质量,而不是将一些人拒之门外。
要知道,当AI网络化发展起来以后,每个人都有可能跟不上技术的进步速度,都可能无所适从,成为那个受AI限制甚至歧视的人。要避免这些情况,我们应该从现在开始,考虑AI网络化潜在的危险,并且仔细斟酌对网络化AI的治理策略。

0

阅读 收藏 喜欢 打印举报/Report
前一篇:线粒体的作用
后一篇:怎么破圈
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有