加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能神经网络首次捕捉到,“人类智能的关键方面”

(2023-10-31 09:41:34)

撰文:尼克莱塔.拉内塞                20231026

 

神经网络是一种人工智能,现在可以以比过去的模型更接近人类学习的方式组合概念。(图片:imagina via Getty Images

科学家在一项新的研究中表明,神经网络现在比以往任何时候都更像人类“思考”。

这项研究于周三(1025日)发表在《自然》杂志上,标志着认知科学领域长达数十年的争论发生了转变。认知科学是一个探索什么样的计算机最能代表人类思维的领域。自20世纪80年代以来,一部分认知科学家认为,神经网络,一种人工智能,不是可行的思维模型,因为它们的架构未能捕捉到人类思维的一个关键特征。

但通过训练,神经网络现在可以获得这种类似人类的能力。

研究合著者、纽约大学心理学和数据科学副教授布伦登·莱克告诉《生活科学》:“我们在这里的研究表明,人类智力的这一关键方面……可以通过实践获得,使用一种因缺乏这些能力而被解雇的模型。”

神经网络在某种程度上模仿了人类大脑的结构,因为它们的信息处理节点相互连接,并且它们的数据处理在层次结构中流动。但从历史上看,人工智能系统的行为并不像人类的大脑,因为它们缺乏以新的方式结合已知概念的能力——这种能力被称为“系统合成性”。

例如,莱克解释说,如果一个标准的神经网络学习单词“hop”、“twice”和“in a circle”,就需要向它展示,许多如何将这些单词组合成有意义的短语的例子,比如“hop twice”或“hop in a cicircle。”但如果系统随后被输入一个新词,比如“spin”,它将再次需要看到一堆例子来学习如何类似地使用它。

在这项新研究中,莱克和研究合著者、巴塞罗那庞培法布拉大学的马尔科.巴罗尼,使用一种虚构的语言,用“dax”和“wif”等单词,测试了人工智能模型和人类志愿者。这些单词要么与彩色圆点相对应,要么与某种功能相对应,该功能以某种方式操纵了这些圆点在序列中的顺序。因此,单词序列决定了彩色圆点出现的顺序。

因此,给定一个荒谬的短语,人工智能和人类必须找出潜在的“语法规则”,这些规则决定了哪些点陪伴单词出现。

人类参与者在大约80%的时间里产生了正确的点序列。当他们失败时,他们会犯一致类型的错误,比如认为一个单词代表一个点,而不是一个打乱整个点序列的函数。

在测试了七个人工智能模型后,莱克和巴罗尼找到了一种称为复合性元学习(MLC)的方法,该方法可以让神经网络练习,将不同的规则集应用于新学习的单词,同时还可以反馈其是否正确应用了规则。

MLC训练的神经网络,在这些测试中达到或超过了人类的表现。当研究人员添加了人类常见错误的数据时,人工智能模型就会犯与人类相同类型的错误。

作者还将MLCChatGPT背后的OpenAI公司的两个基于神经网络的模型进行了对比,发现MLC和人类在点测试中的表现都远好于OpenAI模型。MLC还承担了额外的任务,包括解释书面指令和句子的含义。

约翰斯·霍普金斯大学认知科学教授、微软研究院资深首席研究员保罗·斯摩伦斯基表示:“他们在这项任务上,在计算句子含义方面取得了令人印象深刻的成功。”他没有参与这项新研究。但该模型的概括能力仍然有限,斯摩伦斯基在接受《生活科学》采访时表示:“它可以处理训练过的句子类型,但不能推广到新的句子类型。”

尽管如此,“在这篇论文发表之前,我们还没有成功地将网络训练成完全符合的,”他说。“这就是我认为他们的论文,推动事情向前发展的地方,”尽管目前还存在局限性。

斯摩伦斯基补充道,提高MLC显示成分概括的能力,是下一步的重要工作。

他说:“这是让我们变得聪明的核心属性,所以我们需要抓住这一点。这项工作使我们朝着这个方向前进,但并没有实现。”(然而)

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有