- 博客(3)
- 收藏
- 关注
转载 BERT代码实现及解读
注意力机制系列可以参考前面的一文:注意力机制及其理解Transformer BlockBERT中的点积注意力模型公式:代码:class Attention(nn.Module): """ Scaled Dot Product Attention """...
2019-08-01 13:42:00 3766
转载 注意力机制及其理解
> 注意力机制逐渐在NLP中得地位变得越来越重要,上有Google的"Attention is All You Need"论文,下有 Tranformer、BERT等强大的NLP表征模型,attention 在 NLP 的地位就像卷积层在图像识别一样变得不可缺少的一部分。在这里,总结下注...
2019-07-30 02:06:00 7750
转载 每日一课 Kaggle 练习讲解《House Prices: Advanced Regression Techniques》
每日一课kaggle练习讲解House-Prices 每日一课 Kaggle 练习讲解¶ 每天一道Kaggle题,学习机器学习! 今天给大家来讲讲《House Prices...
2019-07-20 18:36:00 1503
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人