基于深度学习的精确可扩展交换关联泛函

Hugging Face Daily Papers 论文

摘要

微软研究院发布 Skala——一种用于 DFT 的深度学习交换关联泛函,在 GMTKN55 主流化学基准上达到 2.8 kcal/mol 精度,成本仅为半局域泛函水平,全面超越传统泛函。

密度泛函理论(DFT)是现代计算化学与材料科学的基石,但其对实验可观测性质的预测可靠性始终受限于对未知交换关联(XC)泛函的近似。传统提升精度的思路依赖愈发复杂的手工设计泛函形式,导致计算效率与精度长期权衡,仍不足以可靠预测实验室实验。本文提出 Skala——一种基于深度学习的 XC 泛函,在主流主族化学基准 GMTKN55 上误差仅 2.8 kcal/mol,精度超越最新混合泛函,同时保持半局域 DFT 的低计算成本。通过直接从数据中学习电子结构的非局域表征,我们打破了手工设计特征带来的高昂代价,实现精度与效率的历史性脱钩。借助前所未有的波函数高精度参考数据规模,我们证明现代深度学习可在训练数据扩展时系统提升神经交换关联模型,使第一性原理模拟的预测能力持续增强。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/22 10:35

论文页面 - 用深度学习实现精确且可扩展的交换-相关泛函

来源:https://huggingface.co/papers/2506.14665

今天我们发布 Skala 的重大更新:新论文与模型同步上线。

Skala 是微软研究院为 DFT 开发的深度学习交换-相关泛函,目前在 GMTKN55 上达到 2.8 kcal/mol 精度,赢下 55 个子测试中的 32 项,以半局域 DFT 的计算成本获得仅次于双杂化方法的精度。

为什么重要?电子是原子在分子和材料中“粘合”的胶水。更好的 XC 泛函意味着对反应能、能垒、结构与催化等关键性质的预测更准确。

DFT 是计算化学的“役马”,但其预测力受限于未知的交换-相关泛函。沿“雅各布天梯”向上爬通常以更高计算量为代价换取精度,结果诞生一座“泛函动物园”——每个领域一把专用工具。

我们的长期目标,是让这座动物园成为历史。Skala 是我们对“一个深度学习泛函通吃所有体系与性质”的押注;今天的成果是迈向该目标的一大步,而非终点。

核心思路:与其依赖越来越昂贵的手工设计非局域成分,Skala 用可扩展的神经网络直接从电子密度学习非局域电子表示,计算成本仍保持半局域 DFT 水平。

模型在约 40 万个精准能量差上训练,涵盖原子化能、构象、亲和能、反应路径与非共价相互作用,因此能在主族化学全场景表现强劲,而非只在一个狭窄基准上亮眼。

不仅限于能量。我们还展示了精确的偶极矩、杂化级平衡几何、保持半局域积分的 XC 计算成本,以及接入主流生产代码的可行路径——这些方向部分得益于 DFT 社区的反馈。

模型现已上线 GitHub、PyPI 与 conda-forge。我们正将其引入主流 DFT 程序,包括通过 GauXC 或直接集成到 Psi4(https://psicode.org/)与 CP2K(https://www.cp2k.org/)。

如果你在自己关心的体系上试了 Skala,欢迎告诉我们结果。

相似文章

代理式发现交换相关密度泛函

arXiv cs.AI

本文提出了一种基于大语言模型的代理系统,用于自动化发现密度泛函理论中的交换相关泛函。该系统在性能上超越了人工设计的基线,同时也凸显了基准过拟合带来的挑战。

面向科学发现的评测驱动扩展

Hugging Face Daily Papers

SimpleTES 框架将评测驱动的发现循环扩展到 21 个科学问题,在 LASSO 上实现 2× 加速,量子门数量减少 24.5%,并发现新的 Erdos 构造,同时支持轨迹级模型后训练。

DeepSeek V4 完整论文发布:FP4 QAT 技术细节与训练稳定性技巧 [D]

Reddit r/MachineLearning

DeepSeek 发布了完整的 V4 论文,详细介绍了 FP4 量化感知训练、MoE 训练稳定性技巧(预判路由与 SwiGLU 截断),以及用于 RLHF 的生成式奖励模型,实现了显著的效率提升——V4-Flash 在 100 万上下文长度下仅需 V3.2 的 10% FLOPs 和 7% 的 KV 缓存。

deepseek-ai/DeepGEMM

GitHub Trending (daily)

# deepseek-ai/DeepGEMM 来源:[https://github.com/deepseek-ai/DeepGEMM](https://github.com/deepseek-ai/DeepGEMM) # DeepGEMM DeepGEMM 是一个统一的高性能张量核心内核库,整合了现代大语言模型的关键计算原语——GEMM(FP8、FP4、BF16)、带通信重叠的融合 MoE(Mega MoE)、闪电索引器的 MQA 评分、超连接(HC)等——形成一个统一的 CUDA 代码库。所有内核均在运行时编译