量子芯片Willow为何轰动全球科技界
(2024-12-15 12:00:00)分类: 军事与科技 |
谷歌量子芯片Willow为何轰动全球科技界?
2024年12月12日
12月10日,谷歌公布最新一代量子芯片——Willow,轰动全球科技界。它强大在哪?距离大规模量产还有多远?
1. 谷歌最新一代量子芯片Willow炸裂推出,最大的突破在于超强的计算能力和纠错能力
对于一项名为“随机电路采样”的基准任务,当前最快的超级计算机需要花费10 的 25
次方年来解决,时长远超宇宙年龄(267亿年);而Willow完成这项任务的时间不到5分钟。
量子计算有潜力在特定任务上显著提高计算速度、超越经典计算机,这被称为“量子优越性”。早在2019年,谷歌就已经验证了这一事实,在《Nature》公布,表明其利用一台
54量子比特的量子计算机Sycamore实现了传统架构计算机无法完成的任务:在世界第一超级计算机需要计算1万年的某实验中,Sycamore只用了3分20秒。彼时谷歌CEO桑达尔·皮查伊表示这是研究者期待已久的一句“Hello
World”,是截至当时,量子计算实用化最有意义的一个里程碑。
此次Willow的发布,无疑是量子计算领域的又一标志性事件。
然而,“快”还并不是Willow最值得瞩目的突破。
Willow最大亮点在于超强纠错能力。
过去,量子芯片在数据处理过程中,由于量子态的脆弱性,容易受到环境干扰而发生退相干现象,导致量子比特的状态出错。所以,尽管具备“量子优越性”,但量子计算机容易受到环境影响,非常容易出错。通常,量子比特越多,发生的错误就越多。
因此,“量子纠错”就成了一项关键技术,量子芯片需要特殊的量子纠错技术,这也是该领域的重要挑战,也一度严重制约了量子计算的实际应用和发展。
Willow 芯片成功解决了近 30
年来一直困扰研究者的量子纠错难题,实现了错误率的指数级降低。谷歌的研究表明,在Willow中使用的量子比特越多,系统的错误率越低。
当量子比特数量增多,从 3×3 的阵列扩展到 5×5 再到 7×7 的阵列时,谷歌的 Willow
芯片实验中每次扩展都能将编码错误率降低 2.14 倍,错误率下降得越来越快。
2.什么是量子计算?为何如此强大?
1935年,奥地利物理学家薛定谔提出一个伟大的思想实验:把猫装在一个放有放射性物质的盒子里,有50%的概率放射性物质会衰变并释放出毒气杀死这只猫,同时有50%的概率放射性物质不会衰变而猫将活下来。在打开盒子前,谁也不知道猫活着还是死了,只能用“处于生死叠加态”来描述。
量子世界,就如同“薛定谔的猫”一样,处于一种悬而未决的叠加态;对应的新计算理论即为“量子计算”,硬件层则表现为量子芯片、量子计算机。
量子计算表现出两个优点:
第一,强大的数据存储能力。经典计算以比特为基本单元,而量子计算以量子比特为基本单元。
在经典计算中,比特的状态是确定的,要么是0要么是1;而量子比特却处于0和1的叠加态,换句话讲,它可以同时存储0和1。
1块有n个比特的传统芯片,可以同时存储n个数据;而一块拥有n个量子比特的芯片,则能够在同一时刻存储2^n个数据。
第二,对特定问题展现出强大的并行运算能力。
传统电子计算机是串行计算,每次操作只能将单一数值转换为另一个数值,这意味着它必须依照顺序进行计算。而量子计算机通过一次操作即可同时将2^n个数据转换为新的2^n个数据。
3.未来的量子芯片能否替代GPU,推动AI发展进程?
人工智能技术及各种应用在最近几年飞速发展,对计算能力的需求也指数级增长。
理论上讲,量子计算的并行处理能力,使其在处理复杂的人工智能算法时具有天然的优势,能够大大提高模型的训练速度和准确性。Willow芯片的出现,或许能够为人工智能的进一步发展提供了强大的算力开拓。
其实,现在被广泛应用于AI的GPU,最初也是为了加速图形处理而设计。比如游戏中的3D
场景渲染、动画制作中的建模和特效处理、影视制作中的视频视觉效果等。但是,由于其强大计算能力,GPU后来才被广泛应用于科学计算和人工智能领域,特别是深度学习中的神经网络训练和推理阶段,在处理大规模数据集、并行度高的计算任务时表现出色。
从这个角度看,量子芯片未来也会逐步突破发展,打破计算限制,加速各类AI机器学习算法的训练过程。量子芯片目前主要应用于一些对计算复杂度要求极高的特定领域,如密码学中的加密算法破解(例如对基于
RSA
算法的传统加密方式构成潜在威胁)、量子系统模拟(模拟分子、材料等量子层面的物理和化学性质)、复杂的优化问题求解(如物流规划、资源分配等复杂的组合优化问题)等。在这些领域,量子计算的优势能够得到充分发挥,有可能解决传统计算机在可接受时间内无法完成的任务。
量子芯片计算能力的增长主要与量子比特数量的增加和质量的提升相关。未来,随着量子比特数量的增多,量子计算机的计算能力呈指数级增长。每增加一个量子比特,其可能的状态组合数就会翻倍。例如,2
个量子比特有 4 种状态组合,3 个量子比特有 8
种状态组合,以此类推。同时,量子比特的质量(如相干时间、保真度等)也对计算能力有重要影响,高质量的量子比特能够更有效地保持量子态,从而实现更准确、更复杂的计算。
但是,从短期来看,量子芯片难以撼动GPU的地位。量子芯片相比GPU拥有更强的计算能力,理论上可以进行替代。但GPU的护城河,计算能力只是一方面,更重要的是:可编程架构和开发者生态优势、制造工艺和产业成熟度。
GPU的可编程架构和开发者生态是核心壁垒。英伟达用GPU掀起的这场“AI算力革命”铺垫了十多年。
CUDA(Compute Unified Device
Architecture)是2006年由英伟达开发的首个GPU编程架构平台,其价值在于构建了一个GPU开发者生态,算法工程师可以按照自己需求对GPU的能力进行发掘,这也将GPU的应用领域从图形渲染拓展到了通用领域。
如果基于新的硬件(如量子芯片)开发新软件,就需要实现向前兼容,但现有的主要AI软件基本都依赖于CUDA平台开发,因此脱离CUDA架构需要付出高昂的成本。再加上开发社区的护城河效应,众多高性能计算开发者是在CUDA生态中积累开发经验的,CUDA每年有高达五百万次的下载量,推动开发者社区转向其他编程模型将是以十年计的工程。
GPU芯片制造工艺和产业链成熟,拥有广阔的消费市场和产业正循环。
GPU从诞生至今已经25年,下游的个人PC、定制开发、AI数据中心等商业化应用场景,已经形成10至30年不等。当前,GPU从芯片立项到流片一年,流片到量产一年,以GPU开发为主基调,形成了光刻设备开发、晶圆代工工艺迭代等相应的联动周期。如此的牢固产业链在十几年的正循环下很难被打破。
而量子芯片制造和GPU产业链难以重叠。量子芯片的设计、制造工程极其复杂,需要高度纯净的实验环境,精密的量子控制技术和稳定的量子比特,因此长期以来都是零星几家顶尖科技公司在“单打独斗”,还没有形成成熟的产业供应链。因此,短期内实现量子芯片的量产和商业化应用是一大难题。
前一篇:智囊·兵智部·周德威
后一篇:智囊·兵智部·岳飞