nlp
Rbdash
你强不强我不知道,反正我是真的菜
展开
-
201020学习笔记(BERT)
前置:word2vec,RNN网络模型,了解词向量如何建模 重点:Transformer网络架构,BERT训练方法,实际应用 基本组成依旧是机器翻译模型中常见的Seq2Seq网络 传统RNN的问题: 下一层需要上一层的输出,不能并行。 Transformer: self-attention机制来进行并行计算,在输入和输出都相同。输出结果是被同时计算出来的,基本已经取代RNN了。 考虑词将上下文语境融入到词向量中。 两个词x1和x2: 第一步向量初始化,转化为编码(四维向量,四个特征) 第二步Q矩阵,K矩阵转载 2020-10-22 00:18:31 · 1009 阅读 · 0 评论 -
200811学习笔记(贪心nlp)
难点: 1.多种表达方式 2.一词多义(ambiguity):考虑上下文(context)转载 2020-08-12 00:40:32 · 310 阅读 · 0 评论 -
0423学习笔记(五金店实例)
import numpy as np import pandas as pd from sklearn.ensemble import RandomForestRegressor,BaggingRegressor from nltk.stem.snowball import SnowballStemmer #读入训练/测试集 df_train=pd.read_csv('data/input/tr...转载 2020-04-23 23:29:30 · 131 阅读 · 0 评论 -
0420学习笔记(NLTK继续)
情感分析:打分 实例1 利用AF111.txt打分 sentiment_dictionary={} for line in open('data/AFINN-111.txt'): word, score = line.split('\t') sentiment_dictionary[word] = int(score) words="i love you" import nltk ...转载 2020-04-20 20:00:39 · 107 阅读 · 0 评论 -
0415学习笔记(nltk基本处理)
首先,不要把python代码文件命名为nltk,不然会报错ModuleNotFoundError: No module named ‘nltk.book’; ‘nltk’ is not a package 使用nltk.download()提示——远程主机强迫关闭了一个现有连接 在网上找个nltk_data的数据包下载,解压(重要),放在一个根目录下(如C:,D:),放在给的目录里是会报错的比如R...转载 2020-04-17 20:30:07 · 321 阅读 · 0 评论