nlp
文章平均质量分 60
篱下浅歌生
这个作者很懒,什么都没留下…
展开
-
elmo(BiLSTM-CRF+elmo)(Conll-2003 命名实体识别NER)
文章目录elmo(Bi-lm)(命名实体识别BiLSTM-CRF+elmo)一、文件目录二、语料集三、数据处理(data_utils.py)(vocabulary.py)四、模型(mem_transformer.py)五、训练(train.py)六、计算loss值(proj_adaptive_softmax.py)实验结果elmo(Bi-lm)(命名实体识别BiLSTM-CRF+elmo)Bidirectional laguage models:elmo:elmo下游任务:一、文件原创 2022-04-19 20:46:16 · 3001 阅读 · 3 评论 -
transformer-xl(片段级递归机制+相对位置编码)(wikitext-103 语言模型)
文章目录transformer-xl(片段级递归机制+相对位置编码)一、文件目录二、语料集三、数据处理(data_utils.py)(vocabulary.py)四、模型(mem_transformer.py)五、训练(train.py)六、计算loss值(proj_adaptive_softmax.py)实验结果transformer-xl(片段级递归机制+相对位置编码)片段级递归机制:相对位置编码:一、文件目录二、语料集wikitext-103三、数据处理(data_ut原创 2022-04-13 22:44:07 · 4470 阅读 · 1 评论 -
sgm(seq2seq+attention+globel embedding)(多标签分类)
文章目录sgm(seq2seq+attention+globel embedding)sgm(seq2seq+attention+globel embedding)sgm :Encoder (双向LSTM):Decoder (LSTM + attention) :Output (两层全连接+softmax) :Global Embedding :原创 2022-04-01 21:08:14 · 228 阅读 · 0 评论 -
transformer(seq2seq + Multi-Head self-Attention)(multi30k-机器翻译)
文章目录transformer(seq2seq + Multi-Head self-Attention)transformer(seq2seq + Multi-Head self-Attention)transformer :Multi-head Self-attention:Feed-Forward Network :Positional Encoding :Mask :Layer Normalization :原创 2022-04-01 20:54:55 · 359 阅读 · 0 评论 -
han_attention(双向GRU+attention)(imdb数据集---文档分类)
文章目录han_attention(双向GRU+attention)一、文件目录二、语料集下载地址(本文选择AG)三、数据处理(AG_Dataset.py)四、模型(Attention_NMT_Model.py)五、训练和测试实验结果han_attention(双向GRU+attention)词编码:词级别的注意力机制:句子编码:句子级别的注意力机制:一、文件目录二、语料集下载地址(本文选择AG)https://wit3.fbk.eu/2014-01三、数据处理(AG_Dat原创 2022-03-20 22:13:14 · 3535 阅读 · 10 评论 -
attention_nmt(attention+seq2seq)(iwslt数据集---机器翻译)
文章目录attention_nmt(attention+seq2seq)一、文件目录二、语料集下载地址(本文选择AG)三、数据处理(AG_Dataset.py)四、模型(Deep_NMT_Model.py)五、训练和测试实验结果attention_nmt(attention+seq2seq)一、文件目录二、语料集下载地址(本文选择AG)https://wit3.fbk.eu/2014-01三、数据处理(AG_Dataset.py)1.数据集加载2.读取标签和数据3.创建word2i原创 2022-03-16 21:28:41 · 1305 阅读 · 0 评论 -
deep_nmt(seq2seq)(iwslt数据集---机器翻译)
文章目录deep_nmt(seq2seq)一、文件目录二、语料集下载地址(本文选择AG)三、数据处理(AG_Dataset.py)四、模型(Fasttext.py)五、训练和测试实验结果deep_nmt(seq2seq)一、文件目录二、语料集下载地址(本文选择AG)https://wit3.fbk.eu/2014-01三、数据处理(AG_Dataset.py)1.数据集加载2.读取标签和数据3.创建word2id(源语言和目标语言) 3.1统计词频原创 2022-03-08 17:58:46 · 2145 阅读 · 1 评论 -
Fasttext(AG数据集---新闻主题分类)
文章目录Fasttext一、文件目录二、语料集下载地址(本文选择AG)三、数据处理(AG_Dataset.py)四、模型(Fasttext.py)五、训练和测试实验结果Fasttext一、文件目录二、语料集下载地址(本文选择AG)AG News: https://s3.amazonaws.com/fast-ai-nlp/ag_news_csv.tgzDBPedia: https://s3.amazonaws.com/fast-ai-nlp/dbpedia_csv.tgzSogou news原创 2022-03-05 16:11:19 · 1594 阅读 · 3 评论 -
CharTextCNN(AG数据集---新闻主题分类)
2.2 数据集下载AG News: https://s3.amazonaws.com/fast-ai-nlp/ag_news_csv.tgzDBPedia: https://s3.amazonaws.com/fast-ai-nlp/dbpedia_csv.tgzSogou news: https://s3.amazonaws.com/fast-ai-nlp/sogou_news_csv.tgzYelp Review Polarity: https://s3.amazonaws.com/fast-ai原创 2022-02-28 22:31:38 · 711 阅读 · 0 评论 -
TextCNN(MR数据集----情感分类)
文章目录textcnn一、文件目录二、语料库(wiki_00)三、创建训练,测试,验证集四、构建word2id,char2id,特征,标签五、C2W模型构建六、训练和测试实验结果textcnn一、文件目录二、语料库(wiki_00)三、创建训练,测试,验证集import jsonimport nltk#导入数据datas = open("./wiki_00",encoding="utf-8").read().splitlines()#创建训练,测试,验证集f_train = o原创 2022-02-25 17:18:56 · 2226 阅读 · 2 评论 -
C2W(维基百科---语言模型)
文章目录C2W模型(双向LSTM)一、文件目录二、语料库(wiki_00)三、创建训练,测试,验证集四、构建word2id,char2id,特征,标签五、C2W模型构建六、训练和测试实验结果C2W模型(双向LSTM)一、文件目录二、语料库(wiki_00)三、创建训练,测试,验证集import jsonimport nltk#导入数据datas = open("./wiki_00",encoding="utf-8").read().splitlines()#创建训练,测试,验证集原创 2022-02-13 22:56:38 · 1100 阅读 · 0 评论 -
Word2Vec
文章目录Word2Vec一、代码二、实现效果Word2Vec一、代码import numpy as npimport torch.nn as nnimport torch.optim as optimsentences = ["i like dog",'i like animal', "dog cat animal","apple cat dog like","cat like fish", "dog like meat","i like a原创 2022-01-28 16:50:04 · 1237 阅读 · 0 评论