加载中…
个人资料
刘群鸣
刘群鸣
  • 博客等级:
  • 博客积分:0
  • 博客访问:0
  • 关注人气:0
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

日专家探讨AI可能性与局限性

(2024-04-05 12:00:00)
分类: 军事与科技
日专家探讨AI可能性与局限性
2024-03-27

《日本经济新闻》2月20日刊登《人工智能的可能性与局限性》,作者是东京大学名誉教授西垣通:

围绕生成式人工智能(AI)的讨论,一方面期待借此提高工作的经济效益;另一方面主张针对问题加强监管。

现在要做的是回归本原,重新发现生成式AI的本质。

探索AI的原理,着眼点要放在“自主性”和“意义(价值)”这两个论点上。

超人类主义者认为生成式AI具有自主性。

自主性就是自己决定自己的行动。生物都有自主性,是不断创造自身的“自动化系统”。

生物的动作程序的关键点就在于其“封闭性”。而AI需要人为干预,不是完全封闭的。机器都是开放系统,更谈不上自主性。看似根据自己的判断说话的生成式AI,也是一个非自主性存在。

士兵即便不想杀人,但接到命令还是会扣动扳机。人类具既具备自主性,也会采取他律性行动,自由和主观判断等概念就诞生于这两方面的冲突中。

将人类思维和社会视为封闭的自治系统是不对的。因为封闭系统之间无法传输信息。HACS通过引入自主封闭系统之间的分层关系解决了这个难题。

比如,尽管员工可以自主思考,但实际上只能按照议程说话。员工的思想自主权只有通过内部观察才能显现。在短期内,员工受制于公司。但从长远看,他们也可以发挥自主性,表达自己的意见,进而改变公司的发展方向。如将员工全部替换为生成式AI,尽管提高公司的效率,但从长远看,不能给出有助于改善公司发展的建议。

一般来说,人类社会存在着复杂的自主系统,通过HACS模型可以阐明AI的局限性和作用。

AI公认的的不足是,1.无法理解指令的意义,2.无法应对未知的突发状况。

AI通过处理过去的数据给出答案,自然无法应对未知的突发状况。

但无法理解指令的意义与无法预知突发状况是紧密相关的。

食物、天敌、异性,对活着生物来说,这些东西都有意义,但不具备共同的客观性。每个生物遭遇未知状况时都会全力求生。如果成功,这些行动就会成为习惯。

人类通过语言文字等符号表达生命的意义、实现交流。意义对生物而言,本质上是一种主观价值。没有生命的AI,当然不可能理解什么是意义。

AI研究者一直努力将语言的含义视为能够实现逻辑处理的客观存在。不能说这种做法很蠢。毕竟,人类的智力交流都是在将语言的意义客观化、固定化的过程中完成的。

但是,如果剥离了说话者原本的意图,就无法实现富有创造性的交流,也就无法应对未知的状况。

如果人类任由生成式AI做判断,等待我们的将是地狱般的反乌托邦世界。

AI研究者中有不少理想主义者,思想源于神教教义。万事万物的意义皆由神来定,万物之间的逻辑关系通过数据来反映,所以能高速处理数据的机器一定能得出真实的答案,这就是他们的理论。

研发生成式AI的动机之一是推动人类进步,也夹杂着获取巨额财富的世俗动机。

使用生成式AI的普通人只能被动地接受服务,而握有权力的一小撮精英则可能通过操控程序本身迫使生成式AI给出符合本阶层喜好的回答。

果真如此,难道不是一种支配和剥削整个世界的手段吗?研发生成式AI需要消耗超乎想象的电力,成本也高得惊人。如果盲目推崇生成式AI,会让普通人在全新的剥削方式下被剥夺自主性,沦为如同机器零部件一般的纯他律性存在。

我无意全盘否定生成式AI技术,有效利用AI,就不能忘了进行原理层面的探究。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有