Transformer
文章平均质量分 95
钳子_0123
在校大学生
展开
-
BERT初探——以情感分类为例(理论篇)
目录BERT初探——以情感分类为例(理论篇)初步了解BERTBERT的定义BERT 的模型结构BERT的输入表示BERT的训练方式遮蔽语言模型(masked language modeling)下一句预测(next sentence prediction)具体参数BERT的微调过程总结BERT初探——以情感分类为例(理论篇)在“BERT初探——以情感分类为例”系列文章中,你将学到:初步了解BERT (本文将涵盖该部分)BERT的定义BERT的遮蔽语言模型(masked language mod原创 2021-03-13 10:41:39 · 1878 阅读 · 0 评论 -
机器翻译与编码-解码模型 Machine Translation and Encoder-Decoder Models
本章节将介绍机器翻译 (machine translation MT)。标准的机器翻译算法是编码-解码(Encoder-Decoder)网络,也叫序列到序列(sequence to sequence)网络,其可以由RNN或者Transformer结构来实现。翻译 2021-03-08 02:04:08 · 1957 阅读 · 0 评论 -
序列处理的深度学习框架——从RNN到Transformer
Chapter9 序列处理的深度学习框架本读书笔记摘取自斯坦福大学的《Speech and Language Processing (3rd)》Chapter9 - Deep Learning Architectures for Sequence Processing。出版时间:第三版暂未出版本博客是根据原书进行翻译整理得出,如有侵权,请联系删除。如需转载,请私信本人或在文章下方评论。原文链接:https://web.stanford.edu/~jurafsky/slp3/9.pdf9.1 回翻译 2021-03-03 10:40:46 · 1336 阅读 · 0 评论