Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification阅读笔记
最新推荐文章于 2021-12-28 10:43:12 发布
本文是关于Attention-Based Bidirectional Long Short-Term Memory Networks (Att-BLSTM) 在关系分类任务中的阅读笔记。模型包括输入层、嵌入层、双向LSTM层、注意力层和输出层。在注意力层中,对LSTM的输出进行非线性激活以计算权重。实验部分使用SemEval-2010数据集,参数调整涉及词嵌入大小、优化器、学习率、批次大小和dropout率,评估指标为macro-F1score。

最低0.47元/天 解锁文章
1391

被折叠的 条评论
为什么被折叠?



