搞材料模拟的兄弟们都知道,密度泛函理论(DFT)是块硬骨头,算起来又慢又费劲!😩 不过,清华大学的课题组最近开发了一个名为 AI2DFT(基于清华自研算法Deep-learning DFT Hamiltonian的软件) 的神器,用神经网络来加速 DFT 计算,速度直接起飞。
传统的深度学习 DFT 研究,都是先用 DFT 吭哧吭哧算一堆数据,然后再用这些数据来训练神经网络。这样做虽然也能提高效率,但是神经网络和 DFT 还是各玩各的,没有真正融合在一起。
清华大学的这个 AI2DFT 就厉害了!它把神经网络和 DFT 的优化过程融合到了一起,实现了“物理信息无监督学习”!也就是说,AI2DFT 不仅能从数据中学习,还能从物理规律中学习,简直是开了挂!
清华大学物理系徐勇、段文晖研究组基于深度学习密度泛函理论哈密顿量(DeepH)方法,发展出一种具备第一性原理智能的深度学习电子结构计算方法DeepH-Zero。该方法首次在算法层面实现了神经网络与密度泛函理论的深度结合,赋予了模型基于物理原理的非监督学习能力!相关研究成果以“基于变分能量最小化的神经网络密度泛函理论”(Neural-network Density Functional Theory Based on Variational