NVIDIA创造了有史以来最大的量子算法模拟

2021-11-15 15:26 来源:电子说

新的SDK运行在NVIDIA塞勒涅超级计算机上,模拟量子比特数是之前量子计算关键测试的8倍。

在新兴的量子计算领域,NVIDIA刚刚打破了一项具有巨大影响力的记录,同时也在推出相关软件,让任何人都可以完成这项工作。

量子计算将推动气候研究、药物研发、金融等领域的新一波进展。通过在今天的经典系统上模拟未来的量子计算机,研究人员可以更快、更大规模地开发和测试量子算法。

朝着这个未来,NVIDIA创造了有史以来最大的量子算法模拟,使用cuQuantum来解决MaxCut问题,cuQuantum是NVIDIA在GPU上加速量子电路模拟的SDK。

在数学领域,经常引用MaxCut的例子来说明任何已知计算机都无法有效解决的优化问题。MaxCut算法用于设计大型计算机网络,寻找具有数十亿硅通道的芯片的最佳布局,探索统计物理领域。

MaxCut是量子领域的一个关键问题,是展现使用量子算法优势的主要候选之一。

英伟达在塞勒涅的一台内部超级计算机cuQuantum上运行cuTensorNet库,模拟量子算法来解决MaxCut问题。使用896个图形处理器模拟1,688个量子位可以处理多达3,375个顶点的图形。这比之前的超大量子模拟高了8倍。英伟达的解决方案也取得了非常准确的结果,达到了96%的最佳已知答案。

这一突破为cuQuantum在NVIDIA DGX系统中的使用打开了大门,量子算法研究的规模也远远超越了过去,加速了量子计算机的未来。

打开量子世界

现在试试创造这个世界纪录的软件。

从现在开始,cuQuantum的第一个库cuStateVec可供下载。它使用状态向量方法来加速几十个量子比特的模拟。

帮助NVIDIA创造世界纪录的CuTensorNet库使用张量网络方法在一些有前途的近期算法上模拟数百甚至数千个量子位。它将于12月推出。

了解GTC新闻

我们真诚邀请您尝试cuQuantum,它可以显著提高模拟性能,并打破一些重要记录。

延伸 · 阅读