这篇文章选自NAACL_HLT
他的核心是用KG和embedding中获得的知识做数据增强
两层Attention模型,然后是两层attention,一层捕捉当前词和(KG,embeeding)获得的相似词之间的关系
一层是Attention起来。
最后输出隐藏层。
直接看图片和方法就可以了。
这个是计算方式,简直不要太eassy;
这篇文章选自NAACL_HLT
他的核心是用KG和embedding中获得的知识做数据增强
两层Attention模型,然后是两层attention,一层捕捉当前词和(KG,embeeding)获得的相似词之间的关系
一层是Attention起来。
最后输出隐藏层。
直接看图片和方法就可以了。
这个是计算方式,简直不要太eassy;