加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

AI正在接近“叹息之墙”

(2025-07-17 12:00:00)
分类: 军事与科技
AI正在接近“叹息之墙”,山姆·奥特曼则越来越像一个硅谷推销员
2025年07月07日

我们至少要了解人工智能 (AI) 的两件事--
1.人工智能的狂热在过去三年中一直在推动股市走高。
2.人工智能是一项革命性的技术,它将改变世界,并可能消除许多工作。

这两点都正确。
AI一直在推动股市创下历史新高,但市场的外观和感觉就像一个超级泡沫。泡沫的持续时间可能比任何人预期的都要长。
人工智能将使一些工作过时或容易被取代。但教师不会过时。他们将从教授基础知识,转向教授批判性思维和推理。
变化将无处不在,但不是混乱。

01 物理边界限制

人工智能远不如表面上看到的那么简单。
AI可能面临处理能力、训练集和发电方面的材料限制。半导体芯片会消耗大量能源,尤其是数据中心的巨大阵列。
倡导者正在转向核电站,以满足AI的能源需求。
这种需求是非线性的,这意味着需要更大的能源才能取得小的进步。
AI 正在迅速接近其极限。
AI竞赛实际上是一场能源竞赛。

02 AI 缺乏常识

AI 的另一个限制是“搜索中信息守恒定律”。

该定律有严格的数学证明支持。它说的是:AI找不到任何新信息,它可以更快地找到事物,并且可以建立人类不可能建立的联系。这很有价值。AI 找不到任何新的东西。它只能找到已经存在的信息。新知识以创造力、艺术、写作和原创作品的形式来自人类。计算机无法执行真正的创造性任务。
人类永远不会过时。

AI是训练集的稀释和退化。因为更多的训练集内容由先前处理的 AI 输出组成。
AI 容易出现错误、幻觉(更准确地说是虚构)和没有事实依据的推理。而且,当该输出进入训练集时,训练集的质量会下降,输出也会同步下降。
没有好的解决方案。再好的策划,也会会逐步降低 AI 的增值作用。

计算机也缺乏同理心、同情心和常识。他们并不真正像人类那样思考。AI根本不会思考;它只是数学。
一台AI计算机与一组3至7岁的孩子进行比赛。挑战是用手头的工具画一个圆圈。这些工具是一把尺子、一个茶壶和第三个不相关的物体。
计算机推断尺子是绘图工具,并试图用尺子画一个圆。它失败了。
孩子们看到茶壶的底部是一个圆圈,就用茶壶画出完美的圆圈。
AI用了关联逻辑。孩子们用的是常识。孩子们赢了。

这个结果在未来也不会改变,因为常识(归纳逻辑)是无法编程的。
AI公司的系统可以被新系统超越,这些系统只是使用大价钱AI输出作为基准训练集。这是以一小部分成本实现高性能的捷径。
这可能是海盗的一种形式,但很容易做到,而且几乎不可能阻止。
这不意味着AI的终结。但意味着AI天价利润预测的终结。
AI巨头花费的数千亿美元的回报可能极其微薄。

03 创新者还是推销员?

山姆·奥特曼是OpenAI的负责人,该公司推出了ChatGPT应用程序。
人工智能始于 1950 年代,1980 年代遇到了瓶颈,1990-2000 年代处于休眠状态,在过去十年中突然又恢复了活力。ChatGPT如今拥有数亿用户。
奥特曼去年被 OpenAI 董事会赶出,因为该公司旨在非营利,为人类的利益开发人工智能。
当顶级工程师威胁要辞职并跟随奥特曼进行新的冒险时,董事会只好将奥特曼带回了公司。
阿尔特曼全速推进超级智能,据说它可以像人类一样思考。
阿尔特曼认为,ChatGPT 已经比任何活着的人都更强大。
然而,这都是无稽之谈,原因有几个--

1.训练集(大型语言模型研究的材料)正在受到先前 AI 模型输出的污染。机器变得越来越笨拙,而不是越来越智能。
2.信息守恒定律表明,计算机会比人类更快地找到信息,但它们无法找到任何尚不存在的信息。当前逻辑下的机器并不是真正的思考,也不是真正的创造力。他们只是比我们更快地连接点。AI的蛮力计算能力无法克服的逻辑极限。
3.从来没有开发人员能够编写归纳逻辑、真正的常识或直觉。 这是人类拥有的最强大的推理工具之一。

简而言之,超级智能(可能)永远不会到来。奥特曼越来越像一个硅谷推销员。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有