加载中…
个人资料
fzhouy
fzhouy
  • 博客等级:
  • 博客积分:0
  • 博客访问:84,735
  • 关注人气:145
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

英特尔的哈拉尖神经形态计算机被1000多个新人工智能芯片提供动力并且比同等传统计算系统更快50倍执行

(2024-04-19 21:37:43)
标签:

it

杂谈

英特尔的哈拉尖神经形态计算机被1000多个新人工智能芯片提供动力并且比同等传统计算系统更快50倍执行

英特尔的哈拉尖神经形态计算机被1000多个新人工智能芯片提供动力并且比同等传统计算系统更快50倍执行

(Image credit: metamorworks via Getty Images)

英特尔的科学家们已经建造了世界上最大的神经形态计算机,或者一种被设计和结构来模仿人类大脑的计算机。该公司希望它能支持未来的人工智能研究。

英特尔代表在一份声明中说被标榜为“哈拉尖(Hala Point)”的机器能比用中央处理器(CPU)和图形处理单元(GPU)的传统计算系统用更少100倍能量更快50倍执行人工智能工作负载。这些数字是基于318日上传到预印本服务器IEEE Explore的发现,还没有被同行评审。

哈拉尖将最初被部署在新墨西哥州的桑迪亚国家实验室,在那里科学家们将使用它来解决装置物理学、计算架构和计算机科学中的问题。

1152个英特尔的新Loihi 2处理器(一种神经形态研究芯片)提供动力,该大型系统包括11.5亿个人工神经元和1280亿个人工突触,分布在140544个处理核上。

它能每秒做出20万亿次运算或20 皮塔操作。神经形态计算机与超级计算机不一样的处理数据,因此很难来比较它们。但世界上第38台最强大的超级计算机三一(Trinity)吹捧大约20皮塔运算的FLOP能力——其中一个FLOP是每秒一个浮点运算。世界上最强大的超级计算机是前沿(Frontier),它吹捧1.2额外FLOP(exaFLOP)1194皮塔FLOPS的性能。

神经形态计算怎样工作

橡树岭国家实验室(ORNL)的计算机科学家普拉萨纳黛特在研究门(ResearchGate)上写道,神经形态计算因为它的架构与传统计算不同。这些类型的计算机用神经网络来建造机器。

在经典计算中,二进制位的10在顺序中处理计算和吐出一个二进制输出之前流到像CPUGPU或内存等硬件。

  英特尔的哈拉尖神经形态计算机被1000多个新人工智能芯片提供动力并且比同等传统计算系统更快50倍执行


(Image credit: Walden Kirsch/Intel Corporation)

然而,在神经形态计算中,一个“尖峰输入”——一组离散的电信号——被馈入由处理器代表的尖峰神经网络(SNN)。在那里基于软件的神经网络是一个被安排来模拟人类大脑的机器学习算法的集合,尖峰神经网络是一个那个信息如何被传输的物理体现。它允许并行处理并跟随计算测量尖峰输出。

就像大脑一样,哈拉尖和Loihi 2处理器用这些尖峰神经网络,在那里不同的节点被连接和信息被在不同层处理,类似于大脑中的神经元。这些芯片还在一个地方集成内存和计算能力。在传统计算机中,处理能力和内存被分开,这创造一个随数据必须物理上在这些组件之间传输的瓶颈。这两者都使并行处理和降低功耗成为可能。

为什么神经形态计算可能是一个人工智能游戏规则改变者

早期结果还显示哈拉尖取得了一个每瓦(TOPS/W15万亿次人工智能工作负载的高能效读数。大多数传统的神经处理单元(NPU)和其他人工智能系统取得远低于10TOPS/W

神经形态计算仍然是一个发展中的领域,很少有像哈拉尖一样部署的其他机器,如果任何的。然而,澳大利亚西悉尼大学国际神经形态系统中心(ICNS)的研究人员宣布了计划在202312月部署一个类似的机器。

RELATED STORIES

New brain-like transistor goes 'beyond machine learning'

New DNA-infused computer chip can perform calculations and make future AI models far more efficient

World's largest computer chip WSE-3 will power massive AI supercomputer 8 times faster than the current record-holder

澳大利亚西悉尼大学国际神经形态系统中心的研究人员在声明中说,他们的叫 “深南(DeepSouth)”的计算机以每秒228万亿次突触操作仿真大型尖峰神经元网络,他们说这相当于人类大脑的操作速度。

按照英特尔代表,哈拉尖是一个“起点”,一个最终将馈入可商业上被部署的未来系统的研究原型。

这些未来神经形态计算机甚至可能导致像ChatGPT一样的大型语言模型(LLM)从新数据不断学习,这将减少在当前人工智能部署中固有的巨大训练负担。

https://www.livescience.com/technology/computing/intel-unveils-largest-ever-ai-neuromorphic-computer-that-mimics-the-human-brain

 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有