GPT,ELMo,和BERT关联,理解

GPT,ELMo,和BERT关联,理解 文章推荐: 网页链接 https://zhuanlan.zhihu.com/p/49271699 BERT用transformer方法取代了ELMo中用LSTM提取特征的方法 BERT解决了GPT中单向语言模型的方法,变为双向。 BERT采用了Fine t...

2018-11-29 10:46:50

阅读数:173

评论数:0

防止过拟合的方法

1、正则化:L1和L2 2、数据集增强 3、提前终止 4、dropout 5、集成学习 具体解释推荐网址:https://blog.csdn.net/u010899985/article/details/79471909

2018-08-30 16:47:30

阅读数:27

评论数:0

word2vec原理学习

** word2vec的层次softmax和负采样方式 ** 推荐网址:https://www.cnblogs.com/peghoty/p/3857839.html

2018-08-22 21:19:44

阅读数:14

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭