- 博客(2)
- 资源 (16)
- 收藏
- 关注
原创 自然语言处理(NLP): 12 BERT文本分类
BERT介绍BERT 论文阅读来自论文《https://arxiv.org/pdf/1810.04805.pdf》BERT说:“我要用 transformer 的 encoders”Ernie不屑道:“呵呵,你不能像Bi-Lstm一样考虑文章”BERT自信回答道:“我们会用masks”解释一下Mask:语言模型会根据前面单词来预测下一个单词,但是self-attention的注意力只...
2020-04-08 23:03:57 10793 5
原创 自然语言处理(NLP):11 SelfAttention和transformer Encoder情感分析
动手写SelfAttetion和transformer Encoder模型实现电影情感分类通过代码学习,加深对Self Attention 和 Transformer 模型实现理解数据预处理分析,掌握torchtext 在数据预处理应用Self Attention 机制模型训练ats=emb(xt)Temb(xs) a_{ts} = emb(x_t)^T emb(x_s)ats=...
2020-04-06 19:41:09 2024 4
pytorch-flask-api.zip
2019-08-26
word2vec-sentiments-IMDB-Data.zip
2019-07-26
tachyon 介绍
2016-02-18
CDH的安装和使用
2015-12-08
solr搜索引擎-课程文件培训
2014-02-20
solr企业级搜索引擎准备阶段
2013-11-19
积分商城基于Solr搜索引擎PPT
2013-11-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人