输入“/”快速插入内容

材料探索新纪元!清华大学徐勇、段文晖团队发布神经网络密度泛函框架,打开物质电子结构预测的黑箱!

2024年8月19日修改
作者:田小幺 阅读原文
密度泛函理论 (density functional theory, DFT) 作为一种用于预测和解释材料性质的关键工具,在物理、化学、材料科学等领域都发挥着不可或缺的作用。然而,传统 DFT 通常需要耗费大量计算资源和时间,其应用范围受到显著限制。
作为一个新兴的跨学科领域,将深度学习与密度泛函理论结合,通过大量的计算模拟来预测和发现新材料,正逐渐克服传统 DFT 计算耗时且复杂的缺点,在计算材料数据库的构建方面具有巨大的应用潜力。神经网络算法加速构建更大规模的材料数据库,更大数据集又可以训练更强大的神经网络模型。然而,目前的深度学习 DFT 研究大多将 DFT 任务与神经网络分开处理,这大大限制了两者之间的协同发展。
为了将神经网络算法和 DFT 算法更有机地结合起来,清华大学徐勇、段文晖课题组提出了神经网络密度泛函理论 (neural-network DFT) 框架。该框架统一了神经网络中损失函数的最小化与密度泛函理论中的能量泛函优化,相比传统的有监督学习方法,具有更高的准确性和效率,为发展深度学习 DFT 方法开辟了一条新的途径。
该研究以「Neural-network density functional theory based on variational energy minimization」为题,发表在 Phys. Rev. Lett. 上。
研究亮点:
该研究提出了一种神经网络密度泛函理论的理论框架,将变分密度泛函理论与等价神经网络相结合
该研究基于 Julia 语言,结合 Zygote 自动微分框架,从头开发了一套名为 AI2DFT 的计算程序。在 AI2DFT 中,自动微分 (AD) 既可用于变分 DFT 计算,也可用于神经网络训练
论文地址:
关注公众号,后台回复「神经网络 DFT」获取完整 PDF
深度学习与 DFT 集成,实现物理信息的无监督学习
Kohn-Sham DFT 是材料模拟中应用最广泛的第一性原理计算 (ab initio calculation) 方法。该方法把复杂的电子相互作用问题简单化,将其映射为一个由有效单粒子 Kohn-Sham 哈密顿量描述的简化非相互作用电子问题,并且采用近似交换相关函数来考虑复杂的多体效应。虽然 Kohn-Sham 方程是从变分原理中形式化推导出来的,在理论物理学领域备受青睐,但由于迭代求解微分方程更为高效,该方法并不常用于 DFT 计算中。
然而,随着深度学习与 DFT 的进一步集成,这种开发范式已经得到了彻底改变。
深度学习 DFT 的研究主要依赖于数据驱动的监督学习技术。如下图 a 所示,一般情况下,传统的数据驱动监督学习方法通过对不同材料结构进行 DFT SCF 计算以生成训练数据,然后通过设计并训练神经网络,从而预测类似于 DFT 结果的数据。在这个过程中,神经网络与 DFT 是分开的。