nlp
Rbdash
你强不强我不知道,反正我是真的菜
展开
-
201020学习笔记(BERT)
前置:word2vec,RNN网络模型,了解词向量如何建模重点:Transformer网络架构,BERT训练方法,实际应用基本组成依旧是机器翻译模型中常见的Seq2Seq网络传统RNN的问题:下一层需要上一层的输出,不能并行。Transformer:self-attention机制来进行并行计算,在输入和输出都相同。输出结果是被同时计算出来的,基本已经取代RNN了。考虑词将上下文语境融入到词向量中。两个词x1和x2:第一步向量初始化,转化为编码(四维向量,四个特征)第二步Q矩阵,K矩阵转载 2020-10-22 00:18:31 · 1026 阅读 · 0 评论 -
200811学习笔记(贪心nlp)
难点:1.多种表达方式2.一词多义(ambiguity):考虑上下文(context)转载 2020-08-12 00:40:32 · 334 阅读 · 0 评论 -
0423学习笔记(五金店实例)
import numpy as npimport pandas as pdfrom sklearn.ensemble import RandomForestRegressor,BaggingRegressorfrom nltk.stem.snowball import SnowballStemmer#读入训练/测试集df_train=pd.read_csv('data/input/tr...转载 2020-04-23 23:29:30 · 158 阅读 · 0 评论 -
0420学习笔记(NLTK继续)
情感分析:打分实例1利用AF111.txt打分sentiment_dictionary={}for line in open('data/AFINN-111.txt'): word, score = line.split('\t') sentiment_dictionary[word] = int(score)words="i love you"import nltk...转载 2020-04-20 20:00:39 · 126 阅读 · 0 评论 -
0415学习笔记(nltk基本处理)
首先,不要把python代码文件命名为nltk,不然会报错ModuleNotFoundError: No module named ‘nltk.book’; ‘nltk’ is not a package使用nltk.download()提示——远程主机强迫关闭了一个现有连接在网上找个nltk_data的数据包下载,解压(重要),放在一个根目录下(如C:,D:),放在给的目录里是会报错的比如R...转载 2020-04-17 20:30:07 · 363 阅读 · 0 评论