具身智能模型
(2025-02-18 12:00:00)分类: 军事与科技 |
具身智能模型学习方式与儿童相似
2025-02/05 科技日报(记者张梦然)
日本冲绳科学技术研究所认知神经机器人团队开发了一种具有新颖架构的具身智能模型。它允许科学家访问神经网络的各种内部状态,并且能够以与儿童相似的方式学习泛化,揭晓了神经网络中认知发展和信息处理的关键信息。
人工智能(AI)大型语言模型(LLM)主要依赖于大规模数据集,无法像人类那样从有限信息中进行泛化。
具身智能是一种基于物理实体进行感知和行动的智能系统。它可以通过智能体与环境的交互来获取信息、理解问题、做出决策并执行行动。
具身智能模型基于预测编码启发,变分递归神经网络框架,通过集成视觉、本体感觉和语言指令三种感官输入进行训练。
该模型处理了以下输入:观看机械臂移动彩色块的视频;感知人体四肢运动的感觉及机械臂移动时的关节角度;语言指令,如“把红色物体放在蓝色物体上”。
该模型的灵感是大脑不断根据过去的经验预测感官输入,并将预测与观察之间的差异降至最低。
因为大脑的记忆和注意力有限,所以必须按顺序处理输入并更新其预测,而不是像LLM那样一次性处理所有信息。
该模型只需更小的训练集和更少的计算资源就可实现泛化学习。尽管它比LLM犯错更多,但这些错误类似于人类的错误。
这意味着,将语言与行为相结合可能是儿童快速语言学习的重要因素。
具身智能不仅提高了透明度,还能更好地了解AI的行为效果,为未来更安全、更合乎道德的AI发展指明了方向。
这项研究为理解和模拟人类认知提供了一个新的视角,展示了如何通过整合多种感官输入来实现高效的泛化能力。
【总编辑圈点】
何为泛化?人类擅长从少量示例中泛化知识。例如,给孩子展示红球、红色卡车和红玫瑰后,他也会正确识别出西红柿是红色的,即便这是他第一次看到西红柿。这种能力的关键在于组合性——即将整体分解为可重复使用的部分的能力。至于人类如何获得这种能力,是发育神经科学和AI研究中的一个重要问题。本文的成果可以探索人类认知和机器学习之间的复杂联系,从而推动AI的进步。
前一篇:智囊·杂智部·黠童子
后一篇:智囊·杂智部·智胜力