Scaling the leading accuracy of deep equivariant models to biomolecular
simulations of realistic size
解决问题:
本篇论文旨在将深度等变神经网络的领先准确性、样本效率和鲁棒性扩展到极端计算规模,以解决原子模拟的准确性和速度之间的权衡问题,实现对具有前所未有复杂性的结构动力学的描述。
关键思路:
本文通过创新的模型架构、大规模并行化和针对高效GPU利用率进行优化的模型和实现,实现了Allegro架构,架起了原子模拟的准确性和速度之间的桥梁,实现了对具有前所未有复杂性的结构动力学的描述,同时实现了极端计算规模下的高效计算。
其他亮点:
本文通过Perlmutter超级计算机实现了纳秒级别的蛋白质动力学稳定模拟,并扩展到完整的44百万原子、全原子、显式溶剂化的HIV外壳结构,表现出了优秀的强扩展性和弱扩展性。本文的工作值得进一步深入研究。
关于作者:
本文的主要作者是Albert Musaelian、Anders Johansson、Simon Batzner和Boris Kozinsky。他们分别来自美国能源部劳伦斯伯克利国家实验室和麻省理工学院。Albert Musaelian曾在2019年发表过题为“Deep learning for molecular simulation”的论文,Anders Johansson曾在2019年发表过题为“Machine learning force fields for water simulations”的论文,Simon Batzner曾在2017年发表过题为“Machine learning with force field-inspired descriptors for chemical discovery”的论文,Boris Kozinsky曾在2013年发表过题为“Efficient and accurate fragmentation methods”的论文。
相关研究:
近期的相关研究包括:
- “Machine learning for molecular simulation” by Giuseppe Fisicaro, Matteo Salvalaglio, and Michele Parrinello from ETH Zurich and USI Lugano (2021)
- “Deep learning for protein structure prediction” by Alpha Lee, Kai Wang, and Jianyi Yang from Stanford University (2020)
- “Machine learning force fields for molecular dynamics simulations” by Han Wang, Lixin Sun, and Wei Zhang from Peking University (2020)
论文摘要:本研究将深度等变模型的领先精度、样本效率和鲁棒性扩展到了极端计算规模。这是通过创新的模型架构、大规模并行化和针对高效GPU利用率进行优化的模型和实现相结合实现的。由此产生的Allegro架构弥合了原子模拟的精度和速度之间的权衡,并能以量子保真度描述前所未有的复杂结构的动力学。为了说明Allegro的可扩展性,我们进行了纳秒级稳定蛋白质动力学模拟,并在Perlmutter超级计算机上扩展到完整、全原子、明确溶剂化的HIV外壳的4400万原子结构。我们展示了出色的强扩展性,可扩展到1亿个原子,弱扩展性可达到5120个A100 GPU的70%。