- 博客(2)
- 收藏
- 关注
原创 Position-aware Attention and Supervised Data Improve Slot Filling
作者:stanford 来源:EMNLP2017本文贡献:公布了一批SF关系分类的语料,the TAC KBP Relation Extraction Dataset(TACRED),共有119474examples,存放于LDC 创新:将位置注意力机制与LSTM结合已有工作的问题; 1、Although modern sequence models such as Long Short-
2017-09-12 11:21:44
1213
原创 欢迎使用CSDN-markdown编辑器
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2017-09-12 10:00:59
211
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人