自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 【linux的tar命令解压报错:无法open:没有那个文件或目录】

linux解压tar文件报错可能出现的原因1、权限不够,使用sudo2、tar包损坏3、磁盘空间不足4、硬盘解压报错,硬盘损坏,只可用于存储,不能用于解压

2022-03-23 19:36:12 17329

原创 pytorch Torch device的基本用法

Torch device的基本用法print("Default Device:{}".format(torch.Tensor([4,5,6]).device))device = torch.Tensor([1,2,3],device="cpu:0").deviceprint(device)cpu1 = torch.device("cpu:0") # 标注指定为cpuprint(cpu1)gpu = torch.device(0) # 直接指定为gpu,不需要声明print(gpu.

2022-03-12 08:57:37 1577

原创 Transformer---RNN网络

1、什么是seq2seq?简单来说就是模型输入是序列,输出也是序列。典型的任务有:机器翻译任务,文本摘要任务。2、seq2seq模型如何处理文本/长文本序列?使用循环神经网络来处理长文本序列,循环神经网络设置了循环结构,事件链之间存在依赖关关系。3、RNN存在问题?不同时态相互依赖,所以需要存储各个时态的状态信息,且无法并行计算,因此训练时内存消耗大,速度慢隐藏态包含了整个句子的信息,这边造成了瓶颈,当句子较长时,假设有500个word,那么,隐藏态很难包含前499个单词序列的信息,使得处理

2022-03-11 23:13:39 1290 1

原创 linux的分卷压缩与合并unzip时出现文件错误

linux的分卷压缩与合并unzip时出现文件错误有时候给项目上发包是分好几个压缩包发过去的,在Linux下怎么去解压合并?如图:使用如下命令unzip时出现文件解压损坏:# 合并文件为一个data.zipzip subdata.zip -s=0 --out data.zip# 解压data.zipunzip data.zip解决办法如下:将linux的文件拷贝道windows系统中,不需要对所有文件进行合并,直接使用windows解压软件提取最下面的zip文件即可...

2022-02-28 17:30:40 1101 1

原创 【bug】No module named ‘tensorflow.python.keras.engine.keras_tensor‘

一、解决办法:你需要安装GPU,试试下面命令:!pip install --ignore-installed --upgrade tensorflow-gpu

2022-02-28 12:11:43 1680 1

原创 一、卷积神经网络(02 卷积变种)

一、分组卷积普通的卷积操作在通道上使’全连接‘的,而分组卷积将输入通道与输出通道都划分为同样的组数,相同组的通道全连接。假设记分组数为g,则计算量与参数量减小到原来的1/g。应用场景: 分组卷积最初是在AlexNet网络引入,目的是为了解决单个GPU无法处理含较大计算量和存储需求的卷积层这个问题,采用分组卷积分配到多个GPU上,随着硬件升级,这方面需求减少。目前多使用在移动设备构建小型网络模型。现有GPU加速库(cuDNN)优化有限,效率提升并不如理论显著。二、转置卷积转置卷积:又称为‘反卷积

2021-10-21 21:32:25 1474 1

原创 一、卷积神经网络(01 基础)

一、简述卷积的基本操作,并分析其与全连接层的区别?全连接层:特点:输出层的每个节点会与输入层的所有节点连接卷积层:特点:1、局部连接 :输出层的节点与输入层的部分节点相连2、权值共享 :由于卷积核的滑窗机制,输出层不同位置与输入层的连接权值一样。而在全连接层中,不同节点连接权值都不同3、输入\输出数据的结构化:局部连接和权值共享使得在输出数据中可以大致保持输入数据的结构信息。二维图像(保持空间信息)、三维视频(保持空间、时间信息)二、如何计算各层感受野的大小?感受野: 对于某层输出特征

2021-10-20 11:29:25 117 1

原创 Stacked Cross Attention for Image-Text Matching--ECCV2018

Stacked Cross Attention for Image-Text Matching一、这篇文章的研究目的是什么?二、作者最主要的发现是什么?三、作者的研究方法是什么?四、实验设计有什么highlight吗?五、作者的下一步计划是什么?六、有什么可以改进的地方?...

2021-06-25 15:41:50 1029 1

原创 Multimodal music information processing and retrieval: survey and future challenges

Multimodal music information processing and retrieval: survey and future challenges一、这篇文章的研究目的是什么?这篇文章属于综述性论文,主要是对于多模式音乐信息处理与检索的一个相关调查。目的是通过利用音乐各个方面的不同模态,来提高音乐信息处理与检索的性能。这篇文章对于主要做了三方面的研究:1.对其相关文献做了分类。2.分析了现有的多模态融合方法。3.未来几年领域内的挑战。二、作者的主要发现是什么?1.关于模态没有明确

2021-06-17 17:22:30 106 1

原创 Multimodal Discriminative Binary Embedding for Large-Scale Cross-Modal Retrieval--2016.10高新波团队

Multimodal Discriminative Binary Embedding for Large-Scale Cross-Modal Retrieval一.研究内容目前,多模态hash的研究主要是为了学习兼容的二进制码,以保留标签给出的语义信息。作者认为这些方法忽略了哈希学习过程中哈希码的判别性,这导致来自不同类别的哈希代不易区分,从而降低了最近邻检索的准确性与鲁棒性,因此提出了MBDE二.研究贡献在分类方面制定哈希函数学习,学习更具判别性的哈希码。学习异构数据内的共享结构,并保留用于哈

2021-06-16 22:49:52 230 1

原创 pytorch矩阵运算

目录:1.对角矩阵的设置2.矩阵的迹3.上三角矩阵与下三角矩阵4.矩阵的乘积mm和bmm5.矩阵的相乘再相加6.批量矩阵相乘再相加7.矩阵乘向量再相加8.特征值及特征向量1.对角矩阵的设置a = torch.rand(2)print(a)# diag设置对角矩阵,diagonal等于0,设置主对角线x = torch.diag(a,diagonal=0) # iagonal 对角线print(x)# diagonal大于0,设置主对角线上diagonal对应位置的值x = torch.d

2021-04-19 21:59:01 809 1

原创 pytorch的数值比较运算

目录:1. 大于、大于等于、小于、小于等于、不相等2. 最大值,最小值3. 排序4. topk1. 大于、大于等于、小于、小于等于、不相等# 元素相等返回1,不相等返回0.x = torch.Tensor([[2,3,5],[4,7,9]])y = torch.Tensor([[2,4,5],[4,8,9]])z = torch.Tensor([[2,3,5],[4,7,9]])print(torch.eq(x,y))# 比较两个Tensor是否相等print(torch.equal(x,z

2021-04-14 16:35:32 1457 1

原创 pytorch规约计算(累和、累积、均值、方差、标准差、P范数等)

目录一、什么是规约计算?1.累积、累和、所有元素的乘积、所有元素的和2.p-norm距离3.均值、中位数、众数、方差和标准差一、什么是规约计算?一般是指分组聚合计算,常见的由均值、方差等,该计算的特点是使分组内或所有的元素参与计算得到统计性的结果,常见的有如下几种:1.累积、累和、所有元素的乘积、所有元素的和# 累积x = torch.Tensor([[2,3,4,5,6],[9,8,7,6,5]])print(x)print(torch.cumprod(x,dim=0)) # cumpro

2021-04-14 14:42:56 4856 2

原创 pytorch的数学计算(元素级别)

目录1.绝对值、求和、三角函数2.相乘再相加、相除再相加3.向上取整、向下取整、夹逼函数、乘法、取相反数、取倒数、取平方根倒数和平方根4.除法、余数、取小数、四舍五入、指数运算5.自然对数、平滑对数、幂运算6.线性插值7.Sigmoid函数,sign函数,截断值1.绝对值、求和、三角函数a = torch.Tensor([-1,0,1])print(torch.abs(a)) # 绝对值print(torch.add(a,3)) # 求和print(torch.cos(a))print(to

2021-04-13 12:35:04 569 2

原创 pytorch数据的保存与加载(数据的持久化与高并发)

目录1. pytorch数据的保存与加载2.并发量的获取与设置1. pytorch数据的保存与加载模型训练的权重参数需要持久化以产生模型文件后再次加载,进而通过预测任务进行预测# 序列化模型(数据保存)x = torch.randn(2,3)# 序列化即对此进行外部存储 使用torch.save方法(数据加载)torch.save(x,"randn")# 反序列化 对外部存储进行加载 使用torch.load()方法x_load = torch.load("randn")print(x_

2021-04-12 17:09:00 667 1

原创 pytorch的随机抽样

目录1.如何设置随机种子?2.如何进行伯努利分布采样?3.如何进行多项式分布抽样?4.如何进行标准分布抽样?1.如何设置随机种子?torch.manual_seed(123) #manual 手控的# 如没有手动设置,则返回系统生成的随机种子;否则,返回手动设置的随机种子seed = torch.initial_seed()print("seed:{}".format(seed))# 返回随机生成器的状态state = torch.get_rng_state() # s

2021-04-12 15:30:30 1037 3

原创 pytorch索引、切片、连接和换位

1.torch.cat 使用dim对Tensor进行指定拼接Tensor = torch.ones(2,3)print(torch.cat([Tensor,Tensor]))print(torch.cat([Tensor,Tensor],dim=0)) # 纵向拼接为一个矩阵print(torch.cat([Tensor,Tensor],dim=1).shape) # 横向拼接为一个矩阵 # torch.stack 方法进行拼接print(torch.stack([Tensor,Tensor

2021-04-12 11:08:25 364 3

原创 pytorch的基本方法

1.如何判断一个对象是否为Tensor?## 1.如何判断一个对象是否为Tensor?obj = np.arange(1,10) # arange() 主要是用于生成数组print(torch.is_tensor(obj))obj1 = torch.Tensor(10)print(obj1)print(torch.is_tensor(obj1))-----------------------------------------------------------result:False

2021-04-10 10:58:53 651 7

原创 如何判断一个对象是否为Tensor?

如何判断一个对象是否为Tensor?import torchimport numpy as npobj = np.arange(1,10) # arange() 主要是用于生成数组# [1,2,3,4,5,6,7,8,9]print(torch.is_tensor(obj))obj1 = torch.Tensor(10) # 生成单精度浮点类型的张量# tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])print(torch.is_ten

2021-04-08 11:00:32 1829

原创 pytorch实现逻辑回归

一、pytorch实现逻辑回归逻辑回归是非常经典的分类算法,是用于分类任务,如垃圾分类任务,情感分类任务等都可以使用逻辑回归。接下来使用逻辑回归模型完成一个二分类任务:# 使用逻辑回归完成一个二分类任务# 数据准备import torchimport matplotlib.pyplot as pltx1 = torch.randn(365)+1.5 # randn():输出一个形状为size的标准正态分布Tensorx2 = torch.randn(365)-1.5#print(x1

2021-04-07 14:45:38 2245 6

原创 pytorch实现多项式回归

pytorch实现多项式回归一元线性回归模型虽然能拟合出一条直线,但精度依然欠佳,拟合的直线并不能穿过每个点,对于复杂的拟合任务需要多项式回归拟合,提高精度。多项式回归拟合就是将特征的次数提高,线性回归的次数使一次的,实际我们可以使用二次、三次、四次甚至更高的次数进行拟合。由于模型的复杂度增加会带来过拟合的风险,因此需要采取正则化损失的方式减少过拟合,提高模型泛化能力。希望大家可以自己动手,通过一些小的训练掌握pytorch(案例中有些观察数据格式的代码,大家可以自己注释掉)# 相较于一元线性回归模型,

2021-04-06 11:49:42 1196 2

原创 pytroch实现线性回归

pytorch实现线性回归代码练习实例欢迎大家指正,希望可以通过小的练习提升对于pytorch的掌握# 随机初始化一个二维数据集,使用朋友torch训练一个回归模型import numpy as npimport randomimport matplotlib.pyplot as pltx = np.arange(20)y = np.array([5*x[i] + random.randint(1,20) for i in range(len(x))]) # random.randin

2021-04-05 20:36:47 110

原创 Graph Convolutional Network Hashing for Cross-Modal Retrieval---2019 IJCAI-19(西电)

一、Abstract本文设计了一个语义编码器作为教师模块来指导特征编码过程,也称为学生模块,用于语义信息开发。此外,利用GCN来探索数据点之间的内在相似性结构,这将有助于生成有区别的散列码。二、本文的贡献提出了一种新的基于图形卷积网络的跨模态哈希方法来缩小模态差距和提高跨模态检索。为了充分有效地挖掘语义信息,我们训练语义编码器发现语义相关性,它作为“教师模块”引导特征编码网络学习有区别的和语义丰富的特征。然后利用GCN进一步丰富语义结构特征,获得信标特征,进一步更新编码特征。三、作者为什么要使

2021-04-01 19:25:01 848 7

原创 Learning Feature Representation and Partial Correlation for Multimodal Multi-Label Data---2020 IEEE

一、本文所解决的问题?在现有多模态数据集中,用户提供的注释有时不适合模型学习,并且会妨碍检索任务。(多标签数据集)为了解决这个问题,提出了一种具有区分性和噪声鲁棒性的跨模态检索方法,称为FLPCL(包括深度特征学习和部分相关学习),其目的是找到特定于模态的深层特征表示,其保留了多模态数据之间的相似性和区别信息。二、为什么有些标签不适合模型学习?例如图一所示的两幅图像,使用标签信息来进行直接监督,会将他们投影在潜在空间附近的位置,因为他们都具有相同的‘person’类别。然而,当我们用户使用‘horse

2021-03-31 19:31:40 178

原创 pytorch 将标签转为one-hot编码

将标签转为one-hot编码我定义为一个函数,返回为布尔值,需要类型转换def one_hot(label, N=None): # 对标签进行独热编码 label = np.asarray(label) # np.asarray() 对于传入list为深拷贝, 传入array为浅拷贝,即改变传入的值,拷贝的数据会跟着变化 if N is None: N = ind.max() + 1 return np.arange(N) == np.repea

2021-03-24 16:16:39 1651

原创 汉诺塔算法

汉诺塔问题汉诺塔的算法思想可以深思,将最大盘子看作一类,其他n-1个盘子看作一类,过程看着确实不难,但思想确实很神奇。def hanio(n, a, b, c):#代表把n个盘子从a经过b移动到c if n > 0: hanio(n-1,a,c,b)#代表把n-1个盘子从a经过c移动到b print('moving from %s to %s'%(a,c)) hanio(n-1,b,a,c)#代表把n-1个盘子从b经过a移动到c...

2021-03-22 11:49:47 359

原创 评价算法的优劣标准有什么?

一、评价算法的优劣标准有什么?1.1什么是算法?算法就是一个解决问题的方法,一种计算过程。补充:一个程序就是算法与数据结构的组合(数据结构可以直白的理解为研究数据存储的方式)1.2时间复杂度想要去评价一个算法的优劣,我们可以借助时间维度,即时间复杂度就是用来估计算法运行时间的一个式子(单位)。时间的单位为时、分、秒。算法的单位就是O(1),O(n),O(nk)等,例如:循环语句循环1次、2次、3次…(比较少),时间复杂度就是O(1)循环语句循环n次,则时间复杂度为O(n)循环语句循环n次,语句

2021-03-22 11:47:23 7313

原创 Context-Aware Attention Network for Image-Text Retrieval——2021CVPR 中科院

一、研究背景跨模态问题,图像–文本的双向检索严重依赖于每个图像-文本的联合嵌入学习以及相似性度量。很少有人同时探索单个模态中模态和语义相关性之间的对应。二、作者对本文的贡献1、提出了上下文感知注意力网络,可以从全局的角度基于给定的上下文来适应的选择信息片段。其中包括a:单个模态内的语义相关性 b:区域与单词之间的可能的对齐方式。2、提出了使用语义注意力来捕获模态内的潜在相关性。并且图片选定区域与单词对其的二阶注意是具有可解释性的。三、本文作者的动机在以往的研究中,很少有人关注单一模态中,模态之间

2021-03-22 11:04:59 3768 7

原创 Deep Supervised Cross-modal Retrieval ---2019CVPR

目录一、跨模态研究背景二、作者的动机三、实现方法四、损失函数五、本文作者的贡献六、实验结果消融实验复现代码(code)地址:一、跨模态研究背景跨模态检索旨在实现跨不同模态的灵活检索(例如,文本与图像)。它将一种类型的数据作为查询来检索另一种类型的相关数据。跨各种形式提供的搜索结果可以帮助用户获得关于目标事件或主题的全面信息。随着互联网上文本、图像和视频等不同类型媒体数据的快速增长,跨模式检索在现实应用中变得越来越重要,跨模态检索已经引起了学术界和工业界研究者的广泛关注。二、作者的动机跨模式检索是为

2021-03-15 22:00:25 577

原创 使用pytorch快速搭建神经网络的两种方式

假设需要搭建一个3层神经网络:输入层数为5,中间隐藏层的维度为10,输出层的维度为2,激活函数使用ReLU激活函数第一种方法使用nn.Sequential的方式定义,将网络以序列的方式进行组装,使用每个层前面的输出作为输入,内部会自动维护层与层之间的权重矩阵以及偏置向量,方式如下:import torchmodel = torch.nn.Sequential( torch.nn.Linear(5, 10), torch.nn.ReLU(), torch.nn.Linear

2021-03-03 14:43:24 397 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除