1月5日,在南都观察的“年度对话”上,我们邀请了五位嘉宾谈论“技术时代的爱与怕”。
科技跟每个人的关系如此深入而具体,数据的隐私,基因的权益,社会治理中安全与自由的平衡,医疗选择中优生和权利的轻重。在这些场景里,科技应该有边界吗?更重要的是,谁有权来决定边界?科技创造使我们向前发展,人文思考帮我们辨认道路。
以下为本次对话下半部分的文字整理。另有现场直播的回放,扫描二维码即可观看。
▌你在做什么:科技的伦理边界在哪里?
如果假设进化有统一的方向,比如拥有更多的知识,对宇宙有更强的改造能力,在这个假设中,要达到目标,第一我们要生存下去,第二我们要发展下去。以这两个条件为基准,我们才可能取得全人类的共识,从而建立一些基础标准。比如在科幻电影《2012》中,负有责任的总统会让科学家先离开,因为他们代表着人类未来发展的希望。
我们在探讨伦理的边界时,首先要先解决伦理如何制定的问题。毫无疑问,科技是帮助我们生存、发展的有利武器,但这个武器的前提也一定要确保人类的生存和发展可以持续。
贺建奎案中,在事情刚发生的头两个小时,中国的官方媒体很多是表示赞扬、肯定的,认为这是中国科学发展的荣耀,但很快有科学家站出来反对,赞扬的稿子也就被撤了。可见一斑,中国人的伦理观念和现在科技发展的问题有时是不搭的,所以在讨论伦理问题之前,我们要先搞清楚我们的伦理是什么。我们都知道现代科学和技术来自西方,它们自带一套伦理,而这套伦理和我们的传统伦理是非常不一样的。
当然还有一些科技发展的问题是西方的前沿领域也没有办法解决的。比如刚刚季老师说的“电车难题”,牺牲一个人还是牺牲五个人?如果一个人是爱因斯坦,而另外五个人是马上要枪毙的囚犯呢?不知道怎么办,即使是人工智能出现了也没有办法解决。虽然这个问题只是一个理想实验,但它在提醒我们人类的有限,人类再怎么做也不能达到完美。
而在实践的过程中,我们要做的就是不断的反省。现在很多的高科技,包括大数据、人工智能、生物技术等带来的伦理问题实际上是两种伦理意识的冲突。我们接受了来自西方的科学技术,却不愿意接受西方科学技术背后的伦理意识,这本身就是问题。比如在西方的科学伦理中强调个人至上,个体权利不可侵犯。但在中国,大家都觉得刷脸很方便,根本不考虑隐私的问题,所以这不是技术的问题,而是我们的伦理意识中就缺乏对个人意识和个人权利的保护。现在很多的伦理冲突,主要问题还是东西方之间的伦理差异,只不过是借助高科技这件事情更尖锐地凸显出来。
如果说我们要重新思考科技伦理的边界,那谁有权来决定边界呢?如今,一些互联网巨头公司是拥有话语权的,某种程度上它们也正在确立相关领域的技术伦理。公共部门也是如此,比如现在“天网系统”无处不在,那这些摄像头是否获得了我们的知情同意?再比如公安部门为了应对犯罪采集我们的基因信息,是否会侵犯我们的隐私?但普通老百姓在这个过程中似乎并没有什么话语权,我们要如何应对这些问题呢?
目前世界上只有两个国家真正称得上是数据大国,一个是美国,一个是中国。美国的宪法体制决定了国家对个人尊严和隐私保护的重视,所以它的数据和隐私在虚拟世界中是分割的、碎片化的,因此想要获取更多的数据就需要借助技术手段打破中间的壁垒,所以会出现这种尽可能地搜集数据、利用数据的功能设计。而在中国,公众的隐私观念非常薄弱,采集数据相对容易,出于方便,大家也很乐意提供自己的数据。
所以从发展人工智能的角度来看,中国的这种体制是更有利的,因为它使得大数据搜集很容易,为人工智能的发展提供了充足的养料。但另一方面,当把大家的隐私都暴露出来时,社会变得更透明,也可能变得更容易受伤害。但之前我们提到当人工智能精密度越高,就越不可解释,也就越容易黑箱化。在这里,我们看到一对非常尖锐的矛盾:社会是透明化的,而算法是黑箱化的,这就很可怕了。这里根本的问题在于我们的价值取向,如果我们想推动人工智能的发展,那中国现在的体制也许是更有利的。但从维护隐私的角度看,你会看到欧盟通用数据条例中规定个人对于自己数据的使用有提出异议的权利,在没有充分理由的前提下,可以要求中断数据的使用与处理。这是一种非常尖锐的对立,我现在没有结论,我先把这个问题抛出来,因为我觉得这是未来的社会治理中非常关键的一个问题。
我认为可以探索一条不同的技术路径,比如小数据人工智能,它不需要大数据的输入。但在某些领域中它可能比现在主流的人工智能具有更强的灵活性,这样,它就能在商业应用中占有一席之地。所以我们个体能做的也许就是找到一种新的技术路径,利用技术的力量去对抗技术。
回到生物伦理的问题,卡夫卡有一句名言:“生命之所以有意义,是因为它会停止。”而现在整个生物技术的发展似乎都在不断挑战人类的寿命极限,而伴随着技术的发展,我们未来的社会可能会出现新的分化,有钱人可以花钱买寿命,没有钱的人就没有办法延长寿命。人工智能的发展也带来了类似的问题,它取代了很多工作岗位,影响了很多人的就业,所以说技术的发展过程中免不了会给整个社会带来新的挑战,我们也请几位老师谈谈他们的看法。
有时新技术的出现会导致我们的恐慌或其他类似的反应,但需要注意,这种恐慌不见得就是合理的,也不见得就是需要完全避免的。今天中国社会面临两层问题:第一个是,从西方引进的科学技术如何影响我们的传统文化和伦理体系;第二个是,中西方面对最前沿的科技发展都存在不适应的问题。
在中国,有关新技术的立法是相对容易的,过去一二十年确立了很多有关高科技的立法,但取得社会共识是困难的。因为中国的立法仍主要由精英阶层决定,就像贺建奎事件的判决,主要是受到了中国一批一流生命科学家的观点的影响。而这些生物科学家大多从西方留学归来,也带回了西方生物技术背后的伦理意识。但普通老百姓根本搞不清楚这些事,也不是很明白这背后涉及的伦理矛盾。因此在中国,这些问题也会更复杂一些。
在工业革命时期,很多手工业者失业了,他们也担心终有一天被机器替代。但总结过去的经验,我们发现很多工作被新技术取代后,更多的工作也因新技术的产生而涌现出来,而这些新出现的工作是当时的科学家、未来学家所无法想象和预测的。我们现在也能看到这样的趋势,快递行业的兴起、网红的兴起,都是我们之前想象不到的。当然这背后也涉及工作是否平等的问题,这种问题可能更多取决于我们如何利用新科技,谁离新科技更近,或者谁能更好地利用它,或许谁就可以从中获得工作的机会,获得更大的收益。
人在决策过程中,是直觉决策加上逻辑决策,而现在的计算机全部都是逻辑决策,并没有直觉,这是我们要注意的一个问题。而且人还有一种很厉害的能力叫做反思。反思是对各种假设的复盘,在这种复盘中,我做一件事就相当于别人做一百件事。所以我们一定要用自己的脑子去琢磨人工智能的弱点,才有可能成功对抗它。
▌你往何处去:人类还有选择吗?
有一个好的办法是利用我们古代“虎符”的思想,君主和将军各持一半的虎符,拼在一起才能调动军队。所以我们可以想办法对数据进行拆分,使得大家必须合作行动,用这种方法对各个主体进行制衡,而这样的社会对于普通大众来说也相对安全一些。当然,想要支撑建立这样一种架构,一方面需要法律的保障,另一方面也要在技术层面上找到使其落地的可行方法。
另外一点,现在的人工智能离我们期望的人工智能仍相当遥远,很关键的原因在于我们没有办法全面细致地去解构和模仿人类长期进化所形成的心智架构。虽然心理学界现在有很多相关的研究,但没有形成一个统一的人类智能活动的肖像,遑论进入算法化的阶段。但倘若能把这些事情做成,我们就可以颠覆现在所有的主流人工智能技术。最后一句话来总结:我希望用技术打败技术。
之所以可能会产生一些反人性的结果,是因为技术在进化的过程中经受了选择,以致于产生了一些预料不到的结果。从这个意义上来说,技术突进时代的怕是有限的,一些科幻小说和科幻电影所揭示的场景,不可能某一天突然到来,中间一定有一个过程。
在这个过程之中,只要我们社会系统是健全的,能够很好地处理传统问题,那么它处理新问题的能力也不会太差。每个人都清楚自己的利害关系,所以新技术出现后,个体可以在健全的社会系统中发出自己的声音,或许是像徐老师说的那样发明新技术来遏制旧技术,又或许是像季老师说的通过法律的方式进行调节。所以,我想表达的第一点是,在技术突飞猛进的时代,不必过分地忧伤和恐惧,技术自身会相互综合和调整。
其次,高科技并不都是可怕的东西。新技术本身代表着人与人之间新的爱的方式,比如互联网时代我们可以认识更多的人,体会更多的生活方式、爱的方式和与人打交道的方式,这本身是一件好事。
技术给我们的生活提供了更多可能性,而一个社会的活力程度和健康程度与社会的可能性是密切相关的。所以,如果说非要我提出一个技术时代社会发展的原则的话,就是这个技术的出现会不会遏制多样性。如果它可以促进多样性,我们就觉得这是好的,即使暂时会有一些不好的结果,问题也不大。而如果新技术的出现会使得大家变得千篇一律,那肯定是不好的。
同时,当新技术出现的时候,每个人或多或少都会有所抵制,但我们每个人也会根据个人的情况来决定用不用,怎么用。比如说手机,现在多数人肯定认为虽然有坏处,可还是好处更多,所以我还是会用,但这个社会并不要求每个人必须使用手机,而是你自己权衡利弊进行选择。总结起来,我还是倾向于认为高科技创造“爱”的可能性更大,过分的“怕”是没必要的。
其次是刚刚提到过的“算法黑箱”的问题。在维护社会秩序的时候,我们都特别强调责任,要推行问责制,但算法黑箱会导致无所问责,因为它不可解释、不可说明。那要怎么办呢?用人工智能来监督人工智能可能是人类的一个选项。还有一种比较乐观的说法,就是在智能技术和区块技术之间达成平衡,智能技术强调“合”,是数据的汇总利用;而区块技术强调“分”,注重各自的独立性。如果能在二者之间达成平衡的话,我们可能在人工智能时代探索出一条可行的道路。
另外我们发现,想要解决科技端的问题,最重要的是引入东方思想。东方没有哲学,只有思想。哲学讲逻辑,但东方的哲学思想是不讲逻辑的。可人的逻辑不是系统的逻辑,而是零碎的逻辑。爱因斯坦说过科学技术有两大支柱,一个是实验,一个是逻辑。现在这两个支柱千疮百孔,需要用中国的传统思想来进行改造。
在我看来,未来20年左右,我们可能不会从技术的角度去解决这个问题,而是从组织结构,或者说是股权的角度去解决这个问题。这些巨头是否一直会被一个小的管理集团控制?或者说有一天这些企业会由全人类掌控,它所提供的服务会变成基础设施。我认为这是将来会发生的转变,是一个不可避免也不可逆的过程。而今天谈到的区块链技术或许可以为之后实现全人类管理的愿景提供技术支持。
至于人类的未来会怎样,这是一个很大的课题。人工智能到现在也不是一个成熟的学科,它的基础理论还没有建立起来。而我们是否能确立一个人类未来统一的发展方向,这个方向又会如何影响科技的未来,也是不清楚的。
▌观众提问
同样,日常交流图像传输会占用很多信道,虽然5G技术会提高信息传播速率,但对于稳定、精准这样的要求而言,直接的语言表达性价比显然更高。德国新康德主义卡西尔说“人是概念符号的动物”,我认为这个观点不会随着技术时代的到来而改变。
在法律领域中,初级律师的一些工作可以交给人工智能做,但是法律也强调“五声听狱讼”,强调人情世故,计算机就无法合情合理地判断了。
中国传统哲学讲天人合一,把无主体性与极端主体性短路结合在一起了。人机混合的技术以及智能网络化将可能真正实现这样的图景。似乎整个地球有40亿万张蜘蛛网存在,所有人通过互联网、人工智能,使个体主体性不断沿着网络伸延,但实际上又在网络博弈过程中失去了主体性。这其实对社会治理、法律制度设计,都提出了空前的挑战。电影《极乐空间》就提出通过人工智能建立一个理想国,但只有有钱人才能去,剩下的人就留在充满阶级斗争和杀戮的荒废地球上,我们当然希望这不要成为现实。
老子说“道可道非常道,名可名非常名”。“名”就是定义、概念、命名,涉及到表征问题,也涉及到记忆问题。人的表征系统太灵活了,任何一个系统都可以和万事万物相关联,所谓“一花一世界,一树一菩提”,机器就没有这种系统整合思维。
维特根斯坦在《逻辑哲学论》里面的第一句话“世界是所有事实的总体,而不是事物的总体”。事实就是联系,整个世界是由各种联系构成的,而不仅仅是单纯的物理属性。儿童心理学这门学科就是研究人从小到大是怎样来表征世界,怎样记忆和形成认知的。人的学习能够产生一种不确定范围的隐性规则和秩序。小孩学新单词会根据不同语境练习使用(可能组合搭配错误),机器只能利用固定的上下文无法变化生成。
东方思想最厉害的一本书是《易经》,讲变化,其中有三个关键词:第一个词是“知几”,表示看到事物细微变化的苗头和征兆;第二个词是“趣时”,表示把握住时机和变化;第三个是“变通”,随机应变。这才是真正的智能化,机器做不到自己灵活变通,只会按照规则和概率处理问题。
有人说阿尔法狗失败的那盘棋它再下也还会失败,因为机器只会无限的循环,而真正的高手是跨领域跨学科的,就是维特根斯坦说的“家族相似性”。人把大自然看成一个整体,而不仅仅是一个数学公式或物理现象。
大家经常谈的“自主系统”包含了控制、期望和很多模块,人的智慧就在于把各模块整合在一起。记忆是自主的第一个模块,它不同于存储,包含单向性的选择和双向性的匹配。计算机简单的计算叫“刻舟求剑”,感知智能是“盲人摸象”,认知智能顶多是“曹冲称象”。只有人才能洞察万事万物,洞察宇宙、洞察生命,才会有“塞翁失马,焉知非福”的体悟。现在大家认为基因编辑有罪,但一旦未来人类脱离地球就需要这个技术了,“罪人”就可能变“功臣”,伦理法律会随时间发生变化。
喜欢
0
赠金笔