加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

思考还是不思考,这是AI的问题

(2023-11-22 18:20:22)
分类: 心理学进展趣编

思考还是不思考,这是AI的问题

走进大型语言模型中的处理vs.理解

约翰·诺斯塔/

任宇欣,雷雳译

要点

l  GPT 模型看起来很智能,但从根本上依赖于来自大量训练数据的模式识别。

l  它们的任务熟练程度与它们预训练的多样性和范围密切相关。

l  一项新的研究表明,GPT 缺乏真正的理解、抽象推理和情感感知。

l  认识到 GPT AI 的局限性对于将 AI 处理与人类认知区分开来至关重要。

 

人工智能会思考吗?像Chat GPT 这样的大型语言模型的出现重新点燃并扩大了这场争论。

所以,问题是,这些先进的人工智能模型是思考的实体,还是只是复杂的鹦鹉,映现我们自己的话再返回给我们?这个问题不仅仅是哲学问题;它切中了我们今天如何理解人工智能并与之互动的核心。

 

一、思想的幻觉

乍一看,与 GPT 模型交谈感觉就像在与知识渊博的朋友交谈。它可以写诗,回答复杂的问题,甚至开玩笑。但这种智慧的表象可能更像是一种精心设计的幻觉。

谷歌DeepMind最近发表的一篇题为《预训练数据混合增进 Transformer 模型中的窄模型选择能力》的论文阐明了这一点。该研究表明,GPT和类似模型的能力在很大程度上依赖于它们的训练数据。当面对类似于训练的任务时,这些模型表现出色。

然而,当面临不熟悉的挑战时,它们的表现就会波动起伏。

 

二、训练数据:GPT 的核心

我们所认为的 GPT 的“智能”实际上是其训练的反映。GPT 模型是在包含各种人类知识和语言使用的庞大数据集上训练的。这种训练使它们能够产生模仿理解的反应。

但这不是思考;这是规模空前的模式识别。虽然 GPT 可以模拟对话甚至学习,但其功能存在边界。它不能抽象地推理,不能理解人类意义上的上下文,也不能体验情感。

它受其训练数据的范围和性质的约束。例如,如果 GPT 模型从未碰到过有关新科学发现的数据,它就无法进行有意义的“思考”或推理。

 

三、对人工智能未来的影响

了解 GPT 功能的局限性对用户和开发人员都至关重要。它缓和了期望,并指导我们负责任地运用和与人工智能互动。随着人工智能技术的不断进步,在真正的人类认知和人工智能处理之间保持明确的区分至关重要。

 

四、提前考虑

“思考还是不思考。”就GPT 而言,答案(目前)倾向于后者。但是,当我们站在人工智能创新的最前沿时,我们目前对 GPT 能力的理解只是快速发展的旅程中的一个里程碑。我们所处的轨迹不仅充满希望,而且还指向了我们认为人工智能的“认知能力”的扩展。虽然今天的人工智能可能不是人类意义上的“思考”,但前进的道路充满了潜力,暗示着未来可以重新定义思维的界限。

这种演变是迅速的,每一次新的发展都使我们更接近一个领域,在这个领域中,人工认知和真实认知之间的界限变得非常模糊,为非凡的可能性打开了大门。

 

资料来源:

https://www.psychologytoday.com/intl/blog/the-digital-self/202311/to-think-or-not-to-think-that-is-the-ai-question

 

(该文翻译发布得到了原文作者授权)

 

 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有