ChatGPT的虚假承诺
(2023-03-18 12:00:00)分类: 军事与科技 |
乔姆斯基:ChatGPT的虚假承诺
2023年03月10日
著名语言学家、哲学家诺姆·乔姆斯基发表了《ChatGPT的虚假承诺》。他强调,人工智能和人类有极大差异,提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,人类的科学水平以及道德标准都可能降低。以下是译文:
生活在一个既充满危险又充满希望的时代,是悲剧,又是喜剧。一个启示即将来临。
今天,我们确实有理由为人工智能的进步感到既担心又乐观。乐观,因为智慧是我们解决问题的手段。担忧,因为机器学习将把有根本缺陷的语言和知识纳入我们的技术,从而降低我们的科学水平和道德标准。
OpenAI的ChatGPT、谷歌的Bard和微软的Sydney,都是机器学习的奇迹。它们获取大量数据,寻找其中的模式,生成统计学上可能的输出:例如看似像人类一般的语言和思想。届时机械大脑不仅会在速度和容量方面超越人类大脑,还会在所有人类独有的能力上实现超越。
如果像ChatGPT这样的机器学习程序继续主导人工智能领域,它们与人类推理和使用语言的方式有巨大区别。这些差异使它们带有无法消除的缺陷。人类的大脑通过语言,可以“无限地利用有限的手段”创造出具有普遍影响力的思想和理论。
人脑不像ChatGPT类产品那样,是一个模式匹配统计引擎,狼吞虎咽地处理数据,并推断出最为可能的回应或答案。而人类大脑是一个极为高效优雅的系统,只需少量信息即可运作;它不是推断关联,而是创造解释。
例如,一个学习一门语言的小孩从极少的数据中发展出语法,这种语法可以被理解为先天的、通过基因安装的“操作系统”的表达,它赋予人类产生复杂句子和长串思路的能力。孩子的操作系统与机器学习的操作系统完全不同。
这类程序最大的缺陷是缺乏任何智慧最为关键的能力:不仅能说出现在、过去、将来是什么情况;还能说出情况是什么、不是什么。这些都是真正智慧的标志。
假设你手里拿个苹果,当你放开苹果时,会描述结果:“苹果掉下来了。”当你没放手时,会预测:“如果我张开手,苹果就会坠落。”
描述和预测都有价值。而解释则不仅包括描述和预测,还包括反事实的推理:“如果不是因为引力,苹果就不会坠落”,这个因果解释,就是思考。
机器学习的核心是描述和预测;而人类是解释和思考。追求正确,就必须有可能出错。智能不仅包括创造性猜想,也包括创造性批评。人类的思考基于可能的解释和纠错,这个过程逐渐限制了理性考虑的可能性。(就像福尔摩斯说的:“当你排除了所有不可能,剩下的无论多么不可能,都一定是真相。”)
ChatGPT类程序在设计上是无限的,它们可以“学习”(其实就是记忆),却没有能力区分可能和不可能。例如,人类被赋予了一种通用语法,将我们可以学习的语言,限制在某些语言上,而程序却去学习人类可能习得和不可能习得的语言。人类的解释是有限的,而机器学习系统却能同时学习形形色色信息,并根据概率进行交换。
因此,机器学习的预测总是肤浅和可疑的。因为它无法解释语法规则。比如面对“约翰太固执了,没法和他说话”,机器学习就可能错误地预测这句话的含义:约翰太固执了,他不会和某人或其他人说话。语言的正确解释非常复杂,仅靠大数据不行。
一些机器学习爱好者对其作品颇为自豪。但这种预测,即使成功了,也是伪科学。正如哲学家波普尔所说,很多人都乐于寻求具有高度佐证的理论,但我们寻求的不是可能性极高的理论,而是强有力却极不可能的理论”。亚里士多德认为苹果之所以落地,因为大地是它的天然位置,这一理论是可能的,但它只会引来“为什么大地是它的位置”等更多问题;爱因斯坦认为苹果掉到地球上,是因为质量使时空弯曲,这一理论看似极不可能,但它解释了苹果为什么会掉下来。真正的智力恰恰来自看似不可能却深刻的洞见。而这种东西在大数据筛选时往往被错用。
真正的智力还体现在能够进行道德思考。用道德原则约束头脑中无限的创造力,决定什么是该做的,什么是不该做的。ChatGPT为了被大多数用户所接受,必须避免生产在道德上令人反感的内容。而这正是ChatGPT需要继续努力的。
2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上散播厌女性和种族主义的内容,因为它被网络喷子污染了。网络喷子攻击性内容填满了Tay的训练数据。由于缺乏道德推理的能力,程序员只好禁止它在有争议的讨论中提供任何新颖的观点。以牺牲创造力为代价,保证自己的非道德性。即无法平衡创造力与约束:要么过度生成(同时生成真相和谎言),要么生成不足(不表态,对一切后果都漠不关心)。
前一篇:《孔子家语》·困誓
后一篇:《孔子家语》·五帝德