通信世界网消息(CWW)在全球算力竞争日趋激烈、AI for Science成为科技创新核心引擎的时代背景下,一场由中国团队主导、国产全栈技术支撑的科学计算突破,正式改写世界超大规模分子动力学模拟格局。
2026年3月31日,北京龙讯旷腾科技有限公司、中科曙光联合国家超算互联网,正式对外发布重磅科研成果:依托国家超算互联网核心节点(由中科曙光scaleX万卡超集群构建),龙讯旷腾MatPL-2026.3机器学习力场软件实现NEP机器学习力场的414.7亿原子规模液态水分子动力学模拟,大幅刷新全球机器学习力场(MLFF)分子动力学模拟世界纪录,这不仅标志着中国在超大规模科学计算领域迈入全球第一梯队,更验证了超算互联网在支撑世界级科学工程上硬核能力。
精度与规模双重革命,414.7亿原子模拟登顶全球本次联合攻关最核心、最震撼的成果,是在4096张国产异构加速卡并行支撑下,使用NEP机器学习力场完成414.7亿原子液态水分子动力学模拟, 这一规模是此前机器学习力场分子动力学模拟领域公开世界纪录290亿原子的1.43倍。这意味着科学家可首次在接近真实尺度的体系上,以量子力学精度研究复杂材料、电池界面、生物大分子等前沿问题,为“AI for Science”打开全新可能。

北京龙讯旷腾科技有限公司高级研究员、机器学习研发总监索鹏飞博士介绍:“MatPL软件采用的是一种机器学习力场的路线,即先通过少量高精度第一性原理计算数据训练模型,再据此推算超大规模体系中原子的受力情况。而超算互联网核心节点上的曙光scaleX万卡超集群则为庞大规模的计算提供了算力底座。”
众所周知,大规模并行模拟的核心难点,在于“规模越大、效率越低、通信越乱”。而本次测试交出的性能数据,再次证明国产软硬件的极致协同能力。索鹏飞强调:“MatPL-2026.3最核心的优势就是效率。材料领域的分子动力学模拟不同于大模型对话,往往需要百万步迭代,效率直接决定科研能否落地。我们在训练、推理、内存、并行扩展四个维度全面优化,最终在曙光硬件上跑出了世界纪录。”
要知道,在材料科学、半导体、新能源、生物医药等领域,大量卡脖子问题源于微观机理不清、介观行为难测、宏观性能难控。过去,第一性原理计算精度高但尺度极小,分子动力学尺度大但精度不足,两者之间长期存在难以跨越的“介观鸿沟”。
索鹏飞在采访中明确指出:“本次突破的真正价值,是第一次用机器学习力场,把第一性原理的精度、分子动力学的速度、超大规模的并行能力三者打通。700纳米尺度,正好覆盖半导体器件、固态电池界面、合金多晶结构、催化表面等工业最核心场景。这些过去实验难以观测、计算无法模拟的‘黑箱区域’,现在可以被精准还原。”
这意味着,从7nm/5nm先进制程芯片的缺陷与热输运问题,到固态电池电极—电解质界面的衰减机制,再到高端合金的晶界与位错行为,都可在本次模拟支撑下实现从试错研发到预测研发的范式转变。
中科曙光scaleX万卡超集群,夯实硬件底座本次世界纪录诞生的硬件基座,是部署在国家超算互联网核心节点的中科曙光scaleX万卡超集群。截至目前,核心节点已上线三套scaleX万卡级系统,对外可提供超过3万卡的国产AI算力,是当前国内规模最大、稳定性最强、能效最高的异构算力集群之一。
中科曙光解决方案与创新业务总经理张磊表示:“scaleX万卡超集群不是简单的算力堆砌,而是基于算、存、网、管全栈深度协同的紧耦合架构。我们要做的,是让硬件不再成为科学软件的瓶颈,让科学家只关心科学问题,不关心算力调度。”
张磊解读了scaleX万卡超集群支撑世界级模拟的三大不可替代优势:
第一,突破极限的高密度算力。单机柜集成640张AI卡,功耗达到860千瓦,是传统数据中心(20–40kW/柜)的数十倍。“一柜抵一中心”的密度能力,让超大规模集群在有限空间内成为可能。
第二,全球领先的高速互联技术。集群采用中科曙光自研scaleFabric 400G RDMA高速互联网络,卡间通信实测带宽高达448Gbps,跨节点、跨机柜通信延迟极低。“万卡级并行最怕通信阻塞,本次模拟中,我们的网络架构让4096卡协同如同单卡一般顺畅,通信开销压到5%以内,这是破纪录的关键。”张磊说。
第三,浸没式液冷带来的极致能效。曙光自研浸没式液冷相变散热技术,在恒温下实现极速换热,整机PUE低至1.04,在全球处于顶尖水平。“算力越大,散热越难。我们用相变浸没液冷解决了行业性难题,让大规模集群长期稳定运行成为现实。”
本次突破不只是硬件够强,更是软硬件深度协同的结果。曙光团队从三个层面实现与MatPL软件的深度适配:一是精度协同:硬件支持FP64/FP32/BF16/TF32全精度链路,科学计算用高精度、AI加速用低精度,按需调度;二是AI与科学计算深度融合:把Tensor核心能力全面赋能科学计算,让传统分子动力学模拟获得AI级加速;三是编译器与执行流优化:上层用高级语言即可调用底层硬件特性,开发者无需关心硬件细节,实现“迁移无感、性能拉满”。
“我们的目标,是让国产科学软件在国产硬件上,跑得比在国外硬件上更快、更稳、更大规模。”张磊表示,这正是中国构建自主算力生态的核心意义。
龙讯旷腾MatPL-2026.3,五大创新激活超算潜能索鹏飞对MatPL软件进行了系统科普:“材料研发经历了经验、理论、计算、大数据四大范式,当前最核心的路线,是第三范式计算科学与第四范式数据科学融合。MatPL就是为这一融合而生的机器学习力场开源软件。”
其核心逻辑是用MLFF学习海量第一性原理数据,得到高精度力场,再用于分子动力学模拟,兼顾第一性原理的精度与分子动力学的速度,解决传统方法“算得准但算不大、算得大但算不准”的矛盾。
索鹏飞详细拆解了MatPL-2026.3版本的关键升级,正是这五大创新,让超大规模模拟成为可能:
·跨节点多卡并行训练:采用梯度优化器训练NEP力场,并打破传统模型无法跨节点并行的瓶颈;
·单卡性能比肩国际主流:单卡速度与国际顶尖方案持平,小资源也能做高精度模拟;
·内存占用深度优化:单卡模拟规模提升20%,用更少硬件完成更大体系计算;
·超大规模并行模拟:支持大规模机器学习力场MD模拟,4096卡稳定跑出414.7亿原子,打破领域纪录;
·全自动化主动学习流程:训练集构建全自动化,大幅降低数据准备成本,提升模型迭代速度。
实测数据显示,MatPL中实现的NEP力场在固体、液体、多元合金等多种体系中,训练效率较传统方案提升数倍至几十倍,分子动力学模拟效率在全原子规模区间均保持明显领先。
此外,开源策略极大降低了全球科研团队的使用成本,也让国产科学软件走向世界。北京龙讯旷腾科技有限公司总经理田洪镇强调:“MatPL从诞生之初就坚持开源路线,采用GNU GPL3.0开源协议,向全世界科研人员免费开放。我们不希望软件成为科研的门槛,真正的价值是用软件解决材料研发问题。”
从“能用”到“好用”再到“世界领先”
谈及为什么选择国家超算互联网?田洪镇给出明确答案:“超大规模原子模拟,需要数千卡甚至上万卡连续稳定运行,任何单点故障都会导致整个任务失败。超算互联网拥有当前最大的国产异构算力资源池,具备高稳定、低延迟、弹性调度、异地协同能力,是唯一能支撑我们冲击世界纪录的平台。”
超算互联网负责平台与调度,scaleX万卡集群负责底层分布式计算,MatPL负责算法与模拟,三者形成平台—硬件—软件的完整闭环,缺一不可。
张磊也表示,过去算力与软件“各做各的”,导致硬件潜力无法释放、软件性能难以发挥。本次合作建立了研发团队深度协同机制:曙光团队懂硬件、懂架构、懂编译;龙讯旷腾团队懂材料、懂物理、懂算法;双方快速对齐优化点,把硬件特性与算法瓶颈精准匹配。
“这种协同,让我们在极短时间内把性能推到极致。”张磊说,“这不仅是一次技术突破,更是一种新型产业协同模式,未来可能成为AI for Science领域的主流路线。”
田洪镇对此高度认同:“本次合作真正实现了国产软件从‘能用’到‘好用’再到‘世界领先’的跨越,为AI for Science树立了标杆。我们用自主创新,突破了国外在算法、硬件、生态上的三重封锁。”
在全球科技竞争格局下,自主算力与自主科学软件已成为国家战略必争之地。张磊明确表示:“本次突破证明,中国已经具备构建自主安全、世界顶级的科学计算生态的能力。我们不再依赖国外商用芯片、商用软件、商用集群,从底层硬件到上层算法,全部实现自主可控。这是国家科技自立自强的关键支撑。”
田洪镇补充道:“过去材料模拟领域被国外软件垄断,费用高、门槛高、适配难。现在我们用国产软件+国产算力,提供更高效、更便宜、更开放的方案,让全球看到中国力量。”
让每一位科研工作者都能用得起顶级算力此前,AI for Science最大壁垒有两个:一是底层软件创新不足,多数AI应用停留在工程化加速,没有解决真正的科学问题;二是软硬件协同不够,算力虽大,但软件无法充分利用,导致规模上不去、精度达不到。
龙讯旷腾、中科曙光、国家超算互联网三方通过三大举措降低门槛,推动算力普惠、科研普惠。一是软件全面开源,MatPL全程开源,免除高额软件许可费用,让经费有限的高校、研究所、小课题组也能使用世界顶级模拟工具;二是超算互联网弹性算力,即取即用,平台预部署、预优化、预适配,用户无需自建集群、无需调试环境、无需采购硬件,下单即用、弹性扩容、按使用付费,大幅降低硬件门槛;三是推进自然语言驱动的材料智能体,三方正在联合研发材料模拟领域的智能体,未来科研人员只需用自然语言提出需求,系统自动调度算力、调用软件、执行模拟、输出报告,彻底消除专业门槛。“不懂代码、不懂超算的材料学家,也能轻松使用。”田洪镇说。
超算互联网平台龙讯旷腾项目负责人在现场透露,截至2026年3月,平台注册用户已接近120万。用户快速增长的重要原因,是平台推出普惠算力政策:用户赠送1000万Tokens,算力价格低至1毛钱,远低于国外大模型3–10元的价格水平。“我们要做的不是高端小众的超算,而是服务千万科研与产业用户的普惠算力基础设施。”该负责人表示。
“过去我们适配国外硬件,成本高、限制多。现在曙光硬件让我们适配无感、迁移无感、性能翻倍,这是国产算力最珍贵的价值。未来我们会全面拥抱国产硬件,共建生态。”田洪镇总结道。
张磊强调:“中国算力已经从‘追求排名’进入‘服务真实科研与产业’的新阶段。我们的使命,是让中国算力成为全球科学创新的底座,让中国方案引领AI for Science浪潮。”
本次龙讯旷腾、中科曙光、国家超算互联网联合突破,不仅是一次数字上的世界纪录,更是中国AI for Science从跟跑到并跑、再到领跑的标志性事件。它第一次向世界证明:中国有能力走出一条自主可控、开源普惠、产业落地的AI for Science发展道路。


