自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 服务器常用命令

1 复制文件到另一文件cp ATLOP-main/model/model ATLOP+GraphRel/model/model2 复制目录到另一目录cp -r ATLOP-main/modelATLOP+GraphRel/3 查看服务器正在运行的程序nvidia-smi

2022-04-12 20:00:00 325

原创 CorefDRE: Document-level Relation Extraction with coreference resolution

http://arxiv.org/abs/2202.107441.动机以前的工作大多关注于提及的共指消除,而没有关注代词,几乎没有工作关注提及和代词之间的共指消除。 从下图可以看出,文档中的代词表示了丰富的语义信息,这对文档级的关系抽取至关重要2.基本思想为了获得代词的语义特征,我们提出了Coref-aware Doc-level Relation Extraction based on Graph Inference Network 提出了一种mention-pronoun cor.

2022-03-21 15:40:13 488

原创 Modeling Mention Dependencies for Document-Level Relation Extraction

Entity Structure Within and Throughout: Modeling Mention Dependencies for Document-Level Relation Extractionhttp://arxiv.org/abs/2102.10249目录Entity Structure Within and Throughout: Modeling Mention Dependencies for Document-Level Relation Extraction

2022-03-10 15:56:59 1145

原创 EIDER: Evidence-enhanced Document-level Relation Extraction

http://arxiv.org/abs/2106.08657要了解本论文,最好先看一下ATLOP论文和E2GRE论文,本文提出的EIDER模型是在这两个模型上进行改进的模型。目录1 摘要2 动机3 Joint Relation and Evidence Extraction3.1 Encoder3.1.1 目的3.1.2 步骤3.2 Relation Prediction Head3.2.1 目的3.2.2 步骤3.3 Evidence Predictio.

2022-03-09 19:12:44 1108 4

原创 Document-Level Relation Extraction with Reconstruction

传统的图结构模型是对所有的实体对进行信息的建模,而不管这些实体对有没有关系,因此这样会分散模型对有关系的实体对的注意。因此,我们在原有的模型基础上,提出了重构器,重构器的目的是使存在关系的实体对之间的路径依赖更强,最终通过定义的损失函数,可以得到实体对之间的路径存在的可能性,若路径存在可能性越大,说明该实体对之间存在关系的概率越大,损失越小。这样设计,我们就可以使重构器通过学习得来的权重参数来重构实体对之间的路径依赖强度,存在关系的强度大,从而来更加关注存在关系的实体对。因此,重构器被视为一个关系指示器,在

2022-03-08 20:12:04 1479 1

原创 Document-Level Relation Extraction with Adaptive Thresholding and Localized Context Pooling

与句子级关系抽取相比,文档级关系抽取(RE)提出了新的挑战。一个文档通常包含多个实体对,一个实体对在与多个可能的关系关联的文档中多次出现。在本文中,我们提出了两种新的技术,自适应阈值和局部上下文池,以解决多标签和多实体问题。自适应阈值法用一个可学习的实体相关阈值代替了之前工作中多标签分类的全局阈值。本地化上下文池直接将注意力从预先训练的语言模型转移到定位相关上下文,从而有助于确定关系。

2022-03-07 19:54:40 923

原创 Entity and Evidence Guided Relation Extraction for DocRED

http://arxiv.org/abs/2008.12283目录1 摘要2 任务3 动机4 方法4.1 实体引导4.2 证据引导5 模型设计5.1 Entity-Guided Input Sequences5.2 Entity-Guided Relation Extraction5.3Evidence Guided Relation Extraction5.3.1Evidence Prediction5.3.2Evidence-guided ...

2022-03-07 17:20:54 865

原创 PyTorch编程时的小技巧

目录1.训练时显示进度条2.终止jupyter cell正在运行的代码3.查看服务器GPU的使用情况

2021-12-07 19:59:28 590

原创 Pandas读取数据集的相关操作

1.读取csv文件上图展示该数据集的部分数据,可见数据表是没有表头(即列名),因为在读取文件时,要标注header=None,否则会默认把第一行数据作为表头。import pandas as pddataset = pd.read_csv('data/training.1600000.processed.noemoticon.csv', header=None, encoding='ISO-8859-1',engine='python')2.查看读取后的数据表的相关信息2.1 数据表..

2021-12-07 16:33:27 1197

原创 读写文件--PyTorch

读写文件,1.保存和加载张量,2.保存和加载模型模型参数

2021-11-28 15:44:29 203

原创 模型构造和参数管理-PyTorch

深度学习框架提供默认随机初始化参数,然而,我们经常希望根据其他规则初始化权重。深度学习框架提供了最常用的规则,也允许创建自定义初始化方法。默认情况下,PyTorch会根据一个范围均匀地初始化权重和偏置矩阵,这个范围是根据输入和输出维度计算出的。PyTorch的nn.init模块提供了多种预置初始化方法。

2021-11-28 14:52:10 1239

原创 逻辑回归-分类问题---使用PyTorch的API实现

独热编码:逻辑回归的类别我们使用独热编码,独热编码是一个向量,有几个类别该向量就有多长,我们将类别对应的分量设置为1,其他所有分量设置为0。激活函数:softmaxsoftmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值就是交叉熵损失函数:在分类问题中,我们使用的是交叉熵损失函数,而不是均方误差,均方误差是用来计算连续值的损失函数,理由如

2021-11-25 19:06:36 401

原创 线性回归模型---使用PyTorch的API

线性回归是预测连续值的一种模型,是机器学习最基础的模型之一。可以看作是单层的神经网络。1.线性回归模型:Y=XW+b X,W,Y均为张量2.损失函数:求解真实值和预测值之间的误差,在预测连续值时,我们常使用的损失函数公式为均方误差(平均平方误差),公式如下:我们训练模型的目的就是找出使损失函数值最小的权重参数W和偏置参数b。参数迭代:求解各个参数的梯度(反向传播),通过梯度下降(优化器)进行参数的更新。3.梯度下降的方法:小批量随机梯度..

2021-11-25 16:45:38 926

原创 Conda常用命令整理

列举当前所有的虚拟环境

2021-11-21 19:33:18 578

原创 PyTorch深度学习实践 第十二讲 循环神经网络(RNN)(基础篇)

视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibiliRNN循环神经网络是用来处理有时间前后顺序的输入数据,典型的就是自然语言处理了。目录1.RNNcell2.RNN3.使用RNNCell建立模型:'hello'->'ohlol'4.使用RNN建立模型:'hello'->'ohlol'1.RNNcellRNN cell的本质就是全连接层,只不过它的输入来自两个部分,一个部分是上次运行结果的输出,另一个部分是本次的输入数据,具体如下...

2021-11-21 17:11:51 1546

原创 PyTorch深度学习实践 第十一讲 卷积神经网络(高级篇) Inception Module 手写数字识别

我这里先对实现Inception Modele的模型类进行说明。首先,因为我们后面需要将4个分路上的通道数连接,因此不管怎样除了通道数以外的batch_size,width,height都不能变,所以在Inception Modele实现卷积层操作时,我们都对其进行了填充,就是使每次卷积后的width,height保持不变,这里要理解,是很关键的。

2021-11-20 22:52:50 934

原创 PyTorch深度学习实践 第十讲 卷积神经网络(基础篇)

使用卷积神经网络解决手写数字识别问题

2021-11-20 17:48:00 1899

原创 Kaggle上的Dataset之OttoGroup:OttoGroup数据集的简介、下载、神经网络模型的实现

这是一个产品分类的数据集,每个产品共有93个特征,产品的类别数有9类

2021-11-20 15:28:29 604

原创 Kaggle无法出现人机验证的解决办法

之前在电脑下载插件,扩展到浏览器都没成功。因此我直接在手机上使用VPN翻墙了,我使用的是旋风加载器,但每天就2小时可用,但也够了。具体说下步骤吧,先去找个旋风加载器的app链接,在手机上下载下来 然后,打开Google软件,搜索Kaggle,进入注册页面,按步骤注册就可以啦。 还要注意的一点是后面下载数据集要填验证码,对应的Country Code选择86就可以啦。在手机上注册好之后,下次就可以直接在电脑登录就可以了,就不要人机验证码了。...

2021-11-20 14:48:00 2062

原创 PyTorch深度学习实践 第九讲 多分类问题 手写数字识别(训练+测试) 超详细

PyTorch深度学习实践 第九讲 多分类问题 手写数字识别(训练+测试) 超详细

2021-11-20 11:25:44 1912 4

原创 深度学习实践 第八讲 加载数据集(PyTorch自带数据集(torchvision.datasets自带数据集)和非自带)

视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili本次我们要学会使用DataLoader数据加载器来对数据集进行mini_batch批处理,这样可以防止过拟合,以便有更好的泛化能力。几个名词的解释:epoch:指的是一次性训练全部样本的次数total_size:全部的样本数batch_size:指的是将全部样本分批训练,一批中的样本数total_batch:指的是将全部样本分为多少批来看下面这个例子:total_size = 10000 有10000

2021-11-19 20:40:46 1240 2

原创 PyTorch深度学习实践 第七讲 处理多维特征的输入

视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili本次我们使用的数据集是糖尿病Diabetes dataset,是一个二分类问题。矩阵是一个空间变换函数Diabetes dataset的数据集的x的特征数为8,因此我们要做的是8D->1D的非线性转换下图是我们模型设计思路:所以我们这里其实是一个神经网络模型,如下图所示:数据集展示:(数据集链接在最下面)链接:https://pan.baidu.com/s/14Gotj40N..

2021-11-19 17:53:03 1007

原创 PyTorch深度学习实践 第六讲 逻辑回归

视频资料:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili本讲的作业是用PyTorch实现二分类问题。与上讲的作业线性回归有两点区别:需要对预测值使用激活函数sigmoid,因此在前向传播中我们需要加上这一步 损失函数不再使用均方误差,而使用交叉熵误差(回归问题用均方误差,分类问题用交叉熵误差)现在上代码:# 用Pytorch实现二分类import numpy as npimport torchimport torch.nn.functional as Fim

2021-11-19 15:45:48 155

原创 PyTorch深度学习实践 第五讲 用PyTorch实现线性回归模型

视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili本次作业是测试不同的优化器的算法效果,我这里只测试了四种。由于这里的数据集太少,所以图像显示的结果可能与实际生活中的数据集的测试效果有差,等到后面我再用大的数据集测试一下。看代码吧# 不同的优化器的结果对比import numpy as npimport torchimport matplotlib.pyplot as plt# 准备数据集x_data = torch.Tensor([[1.0], [2

2021-11-19 14:22:22 285

原创 Pytorch深度实践入门 第四讲作业 反向传播

b站视频:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili第四讲作业我这里是采用了所有的数据集进行学习,若训练集太多,就要采用mini_batchimport torchimport matplotlib.pyplot as pltimport numpy as np# s数据集x_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# 设置初始值并梯度追踪w1 = torch.Tensor([1.0])w2 = tor.

2021-11-18 20:49:06 816 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除