目录
一、最新论文解读
1、Extraction of organic chemistry grammar from unsupervised learning of chemical reactions
这是谷歌AI lab 将transformer运用于化学的逆合成的领域, 在过去的几百年里,化学家编译了化学合成语言,通过了解原子在化学转化过程中如何重新排列来推断一系列“反应规则”,这一过程称为原子映射。 原子映射是一项费力的实验任务,当使用计算方法处理时,需要对化学反应进行连续注释并扩展逻辑一致的指令。 在这里,证明了 Transformer 神经网络在没有监督或人工标记的情况下学习产品和反应物之间的原子映射信息。 使用 Transformer 注意力权重,构建了一个化学不可知、注意力引导的反应映射器,并从未注释的反应集中提取连贯的化学语法。 方法在准确性和速度方面表现出卓越的性能,即使对于具有非平凡原子映射的强烈不平衡和化学复杂的反应也是如此。 它为众多化学反应任务提供了数据驱动和基于规则的方法之间缺失的链接。
当前的解决方案结合使用图论方法、启发式方法和基于规则的系统。 不幸的是,现有的映射和算法往往容易出现错误和质量问题,这限制了监督方法的有效性。 另一方面,称为 Transformers 的自监督神经网络最近在应用于不同领域特定数据(例如化学反应)的文本表示时显示出巨大的潜力。Transformer对于即使严重不平衡的反应,它在准确性和