NLP
文章平均质量分 63
HJHGJGHHG
这个作者很懒,什么都没留下…
展开
-
BertTokenizer如何添加token
BertTokenizer如何添加token 在实际情况中,我们可能需要往预训练模型中添加 token。例如下面的例子:tokenizer = BertTokenizer.from_pretrained("hfl/chinese-roberta-wwm-ext-large")model = BertModel.from_pretrained("hfl/chinese-roberta-wwm-ext-large")text = "c_1四处张望。"print(text)print(token原创 2021-09-28 15:22:40 · 3166 阅读 · 0 评论 -
RNN笔记
RNN一、我们为什么需要RNN1.从神经网络说起 从基础的神经网络中知道,神经网络包含输入层、隐层、输出层,通过激活函数控制输出,层与层之间通过权值连接。激活函数是事先确定好的,那么神经网络模型通过训练“学“到的东西就蕴含在“权值“中。我们称全连接的前馈神经网络为线性层或全连接层(FC),对应 pytorch 中的 nn.Linear。如下图就是一个经典的全连接神经网络: 对于表格数值数据,FC的效果不俗。现在我们来看自然语言数据。考虑如下的问题:给定一句话,判断这句话的情感是积极的 (Pos原创 2021-09-28 14:31:27 · 293 阅读 · 0 评论