加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

其实AI并不“聪明”

(2025-11-12 12:00:00)
分类: 军事与科技
AI会不会取代你的工作?其实AI并不“聪明”……
2025年10月24日

在《投喂AI》这本书中,3位牛津大学学者对“AI取代工作”的担忧做出了回应。
实际上,目前的AI并不能思考,也不能理解文本的真正含义,而只是基于数据进行输出。
更值得担忧的反倒是夸大AI的功能和生产力,导致人们未经深思熟虑就将它们应用于众多行业。

01.ChatGPT并不聪明,它不能理解句子的真正含义

很早就有了语言模型和聊天机器人,如今,是数据集和各种算法的支撑,让它们能够生成各种文本。
但大语言模型不能进行思考,也不能理解句子的真正含义。
它分析的是语言,而不是语言背后的社会意义。人
类在回答问题时,调动的是对语境和人类社会的理解。
而模型在回答问题时,调动的是各字符之间的统计关系,它并不真正了解这些字符在现实中的含义。
ChatGPT这样的模型只是“随机鹦鹉”,只是基于数据进行输出,并未真正理解文本数据的含义,因此具有局限性。
问题在于我们会忘记它们是机器。与AI聊天时,会错认为它具备一定的理解力,实际上这只是一种幻觉。
大语言模型只是在根据概率猜词。这就解释了为什么给它明确指令的时候,它给出的答案很准确;但在其他情况下,它的回答完全经不住考验——只是听上去很合理,但其实全是它自己编造的错误信息,原因就是它无法理解自己说的是什么。
被问到有唯一正确答案的问题时,大语言模型的表现往往不尽如人意,但面对一些提炼总结的任务,它的表现可圈可点。
如果颠倒陈述逻辑,大语言模型会出现故障。
研究人员询问ChatGPT-4:“汤姆·克鲁斯的妈妈是谁”。
在79%的情况下,它能给出正确答案“玛丽·李·菲弗尔”
如果反过来问“玛丽·李·菲弗尔的儿子是谁”,它的正确率仅有33%
大语言模型还会凭空编造法律案例,引用根本不存在的书籍,给出的答案看似无懈可击,与人类的无异,实则漏洞百出。
随着网络搜索和其他相关验证功能被整合到聊天机器人中,这种情况会大大减少。
人类想要正确理解大语言模型,客观地评估其优缺点,就不能把它当成人来看。它没有智力,也没有创造力,自然也没有信念、精神和情绪。
在日常生活中,我们经常会从心灵属性的角度看待某种行为,赋予其信念和想法,这就是哲学家丹尼尔·丹尼特所说的“意向立场”。但我们不能这样对待大语言模型,因为它们没有情感和心智。
尽管如此,它们还是可以在很多领域帮助人类大幅提升工作能力,它们虽然不能像你有意识且有心智的同事一样理解你,但它们用途广泛、功能强大。

02.机器能否取代你的工作?

有预测称,AI将导致大量工作岗位消失。人类工作中有40%左右的工作时间会受到大语言模型的影响。
但也不能完全相信这些数据。通常这些数据都来自高度抽象的系统分析、计算。
计算的前提是大语言模型能够被大规模地、广泛地应用于实际工作中,但这种情况并不常见。
2013年,牛津大学发现在未来10~20年,美国有47%的岗位将被计算机取代。
但这么多年过去了,预测没有成真。事实上,公司没必要让机器取代工人,而应让机器发挥更大的作用。
大语言模型虽然在某些写作或内容创作领域表现很好,但取代人类的可能性很小。大语言模型还不够客观和准确,不能获得人类的完全信任,因此机器更多是辅助而非取代。
文职岗位更容易被机器取代。生成式AI对大多数职业的影响,是改变工作岗位所需技能、工作时间和劳动强度。
大语言模型更擅长处理有明确目标和有较多文本数据支撑的标准化任务。
虽然机器不可能完全取代人类工作,但有一些专门为特定行业设计的生成式AI还是会彻底改变这些行业。
比如,跟代码打交道的软件开发员和计算机程序员将受到极大影响。
ChatGPT还擅长广告、营销和新闻传播领域的文本创作。
一些涉及大量文本数据整合和分析的工作,也可以使用AI来提高工作效率。但绝不能过度依赖ChatGPT。
使用大语言模型的最大风险,就是夸大其功能和生产力,导致人们未经深思熟虑,就将它们应用于众多行业。
模型不具备人类的理解能力、社会意识和同理心,试图简单地用它替代人类是不现实的。
AI的发展并非完全由技术人员掌控。它受到市场竞争压力的影响,还受到各种政治、经济和文化因素的影响,很难预测。如果过度依赖大语言模型,给予机器过多的权力和责任,而没有足够的人力监督,这过于鲁莽。
模型就像私立学校培养出的政治精英阶层,他们的话听起来似乎很有道理,细想下来却充满了该阶层对社会的偏见。

03.末日恐惧大可不必,AI的这些风险更令人担忧

有关AI毁灭世界的警告,尽管有炒作嫌疑,但还是有人相信其会对人类未来生存构成威胁。
从目前形势来看,在能够预见的未来,人类不会面临此类威胁。
现在的AI连仓鼠水平的自主意识都没有。大语言模型只不过是标准的语言模型,根据人类输入的提示语输出结果。
它确实能协助黑客攻击、编造虚假信息和传播错误信息。但离追杀人类的桥段还很远。这些脱离了当前AI的现实。
然而,这并不意味AI不会发展到电影中的程度。我们要做的是从现实情况出发,预判随其技术演进可能滋生的风险。
那么,我们现在正面临怎样的风险呢?
不法之徒可能会利用大语言模型危害社会,先进的大语言模型能够让聊天机器人与网络上数百万人进行互动交流,用户根本意识不到自己正身处精心设计的操控之中。
大语言模型还让人们更容易接触到制作生物武器和其他可用于恐怖袭击的化学品的信息。大语言模型具备专家级别的专业知识,理论上甚至能够指导用户制造新型病毒。
生成式AI还会放大偏见,强化刻板印象。直接影响人们的生活质量和基本权利。
还要深挖塑造AI发展的隐形价值观。

节选自《投喂AI》
副标题: 人工智能产业的全球底层工人纪实
作者: [英]詹姆斯·马尔登/[英]卡勒姆·坎特/[英]马克·格雷厄姆

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有