深度学习
文章平均质量分 82
深度学习
热爱旅行的小李同学
沉淀。
展开
-
猿创征文|信息抽取(3)——pytorch实现IDCNN-CRF模型进行实体抽取
模型:论文:摘要:对于序列标注来讲,普通CNN有一个劣势,就是卷积之后,末层神经元可能只是得到了原始输入数据中一小块的信息。而对NER来讲,整个句子的每个字都有可能都会对当前需要标注的字做出影响。为了覆盖到输入的全部信息就需要加入更多的卷积层, 导致层数越来越深,参数越来越多,而为了防止过拟合又要加入更多的Dropout之类的正则化,带来更多的超参数,整个模型变得庞大和难以训练。原创 2022-09-07 15:32:30 · 1678 阅读 · 26 评论 -
猿创征文|信息抽取(2)——pytorch实现Bert-BiLSTM-CRF、Bert-CRF模型进行实体抽取
猿创征文|信息抽取(2)——pytorch实现Bert-BiLSTM-CRF、Bert-CRF模型进行实体抽取原创 2022-09-04 21:56:45 · 7405 阅读 · 254 评论 -
猿创征文|信息抽取(1)——pytorch实现BiLSTM-CRF模型进行实体抽取
论文参考:Bidirectional LSTM-CRF Models for Sequence TaggingNeural Architectures for Named Entity Recognition使用数据集:https://www.datafountain.cn/competitions/529/ranking导包、路径、超参数、预设常量生成word2index字典、加载数据集3 数据处理文本、标签转换为索引(训练集)流程:文本转换为索引(测试集)测试集同上,没有标签4 模型原创 2022-08-29 17:01:17 · 2673 阅读 · 58 评论 -
深度学习笔记(5)——pytorch实现Att-BiLSTM
模型图:LSTM层:Attention层M=tanh(H)α=softmax(ωT∗M)r=HαTh∗=tanh(r)M=tanh(H)α=softmax(ωT∗M)r=HαTh∗=tanh(r)其中H为LSTM输出的结果,对应于nn.lstm()输出的第一个结果。原创 2022-08-25 20:56:13 · 1725 阅读 · 2 评论 -
深度学习笔记(4)——TextCNN、BiLSTM实现情感分类(weibo100k数据集)
使用数据集:微博数据集,共有约12万条数据,标签数为2。配置环境:Rtx3060 Laptop/AutoDL。原创 2022-08-22 23:23:10 · 3225 阅读 · 9 评论 -
深度学习笔记(3)——pytorch+TextCNN实现情感分类(外卖数据集)
使用数据集:某外卖数据集,共有11987条数据,标签数为2。配置环境:Rtx3060 Laptop。原创 2022-08-20 14:29:50 · 4343 阅读 · 21 评论 -
深度学习笔记(2)——pytorch实现MNIST数据集分类(FNN、CNN、RNN、LSTM、GRU)
快开学了,花了一个晚上时间复习深度学习基础代码,复习了最基础的MNIST手写数字识别数据集分类,使用FNN、CNN、RNN、LSTM、GRU实现。原创 2022-08-16 23:41:59 · 2623 阅读 · 4 评论 -
深度学习笔记(1)——pytorch实现线性回归
pytorch实现一元线性,回归代码如下:# pytorch实现一元线性回归import numpy as npimport matplotlib.pyplot as pltimport torchfrom torch import nn, optimfrom torch.autograd import Variable# 定义数据集x_data = np.random.rand(100)noise = np.random.normal(0, 0.01, x_data.shape) #原创 2022-03-23 22:02:05 · 3049 阅读 · 1 评论