nlp
文章平均质量分 83
nlp
CtrlZ1
浮天水送无穷树,带雨云埋一半山。
展开
-
自然语言处理之机器翻译
目录介绍注意力机制计算背景变量矢量化计算背景变量GRU中的改动代码实战部分数据预处理编码器注意力机制解码器训练总结介绍机器翻译,简单来说,给你一句英语,机器给翻译成法语,是不是想到了有道翻译?过程:可以看出,句子都是不等长的,而且每个样本句子句末都有结束标记‘<Eos>’‘<Eos>’‘<Eos>’,另外解码器的一个输入是‘<Bos>’‘<Bos>’‘<Bos>’,然后输出第一个预测词。另外编码器需要设置一个最长步数max_原创 2021-04-07 17:16:13 · 3169 阅读 · 0 评论 -
卷积神经网络实现情感分析
目录储备知识数据预处理模型建立储备知识建议先了解一下关于nn.Conv1d的相关知识,附上链接https://blog.csdn.net/sunny_xsc1994/article/details/82969867数据预处理与循环神经网络使用的数据一样,都是[batch_size,max_len]格式。模型建立下面class TextCNN(nn.Module): def __init__(self, vocab, embed_size, kernel_sizes, num原创 2021-04-06 14:40:23 · 984 阅读 · 0 评论 -
循环神经网络实现情感分析
目录前言预处理建立模型引入训练好的词向量训练就不说了前言本文用于快速回忆相关知识,个人笔记。预处理数据每个样本是一个句子,首先定一个最大句子长度max_len,然后将所有数据样本整理成[batch_size,max_len]的形式,每个元素是id,不是char。创建好迭代器建立模型参考下面:# 建立模型class BiRNN(nn.Module): def __init__(self,vocab,embed_size,num_hiddens,num_layers):原创 2021-04-06 13:54:57 · 537 阅读 · 0 评论 -
自然语言处理中的负采样
目录word2vec出现的背景跳字模型(skip-gram)连续词袋模型(CBOW)小结负采样具体训练过程word2vec出现的背景我们都知道,自然语言处理需要对文本进行编码,将语言中的词转化为向量的形式,计算机的世界里只有数字,所以这是一项必须要做的工作。有人可能会想,最常见的编码如one-hot编码,能不能用于自然语言处理对于文本的编码呢?答案是肯定的,当然能,但是效果不好,也许没人会这么做。为什么呢,因为文本几乎都具有相关性,构成文本的单词更是有相关性,它们之间应该能通过各自的词向量来表征它原创 2021-04-05 13:37:42 · 977 阅读 · 0 评论 -
循环神经网络的简洁实现
这里写目录标题前言具体实现加载数据相邻采样梯度修剪one-hot编码参数定义模型后记前言本文用于记录循环神经网络的简单实现及个人笔记,防止遗忘,内容来自https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter06_RNN/6.5_rnn-pytorch具体实现加载数据加载数据,同时将字符转化为索引def load_data_jay_lyrics(): corpus_chars=open('jaychou_lyrics.txt',en原创 2021-04-05 20:47:05 · 1169 阅读 · 2 评论