NLP
文章平均质量分 94
TheHonestBob
把自己在工作和学习当中学到的,并且网上资料少的内容记录下来,希望能帮助到更多的人,和大家一起交流成长。
展开
-
通俗易懂的Attention、Transformer、BERT原理详解
一、写在前面网上关于这部分内容的好文章数不胜数,都讲的特别的详细,而今天我写这篇博客的原因,一是为了加深对这部分知识的理解,二是希望博客内容能够更多的关注一些对于和我一样的新同学难以理解的细节部分作一些自己的描述,三也是为了写一下我自己的一些思考,希望能和更多的人交流。这篇文章主要内容不在于原理的详细描述,期望的是对那些原理有了整体的认识,但是总是感觉似懂非懂的朋友们有所帮助。所以内容偏向于可能对于大佬来说很简单,但是对于刚刚接触NLP的朋友来说可能不了解的部分。希望有缘的朋友看到不吝赐教。二、..原创 2020-06-11 23:55:27 · 2103 阅读 · 10 评论 -
循环神经网络RNN、LSTM、GRU原理详解
一、写在前面这部分内容应该算是近几年发展中最基础的部分了,但是发现自己忘得差不多了,很多细节记得不是很清楚了,故写这篇博客,也希望能够用更简单清晰的思路来把这部分内容说清楚,以此能够帮助更多的朋友,对于理解错误的地方也希望各位能够留下宝贵的意见,觉得不错别忘了点赞鼓励一下。二、循环(递归)神经网络RNN1、神经网络在开始RNN之前我们先简单的回顾一下神经网络,下图就是一个简单的神经网络的示...原创 2020-05-31 17:43:53 · 3669 阅读 · 6 评论 -
BERT论文翻译
一、 写在前面在Transformer和BERT大行其道的时代,搞懂这两种模型结构很有必要,在网上没有搜索到满意的论文翻译结果,最近刚好有时间,把BERT的论文在个人英语水平基础上最大程度的保留原作者的本意翻译一遍,如有翻译不到位的地方请各位指出,觉得不错的点个赞鼓励一下,Tansformer的论文我之前已经翻译了,可以查看我的这篇博客attention is all you need 论文翻译...翻译 2020-05-24 23:05:40 · 1576 阅读 · 0 评论 -
Attention is all you need论文翻译
一、写在前面前段时间为了重新学习一遍BERT,顺便把Transformer的论文Attention is all you need翻译了一遍,在个人水平基础上进行的翻译,存在翻译不妥的请指正。查看原论文请点击。二、译文以下是翻译部分摘要目前主流的序列转换模型的编码器、解码器都是基于复杂的CNN和RNN模型,包括性能最好的模型都是由attention机制连接编码器和解码器。我们提出了一种新...翻译 2020-02-24 20:40:46 · 2590 阅读 · 0 评论