自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

转载 【Pytorch细节】常用的学习率调整方法

常用的几种学习率调整方法

2022-08-10 09:09:20 216 1

转载 【Pytorch细节】关于MLP中权重矩阵W的两种实现方法及其区别

线性全连接层

2022-08-07 23:01:16 615

原创 【深度学习基础】后向传播算法手推

后向传播算法推导及伪代码

2022-08-03 19:34:01 338

原创 【论文阅读】Gait Quality Aware Network: Toward the Interpretability of Silhouette-Based Gait Recognition

论文信息: Saihui Hou , Xu Liu, Chunshui Cao, and Yongzhen Huang 北京师范大学,银河水滴 TNNLS 2022 文章提出具有可解释性的GQAN,可以根据重要性对轮廓和部件进行排序;并提出PQLoss能够使GQAN以端到端的方式训练,只需要序列级别的身份标注即可。

2022-05-06 09:16:52 840 5

原创 【论文阅读】Gait Lateral Network: Learning Discriminative and Compact Representations for Gait Recognition

论文信息: 作者:Saihui Hou, Chunshui Cao, Xu Liu, and Yongzhen Huang 中国科学院自动化研究所,北京科技大学,银河水滴 ECCV 2020 这里做的突出贡献是将集合步态表示的维度降低了两个数量级,且准确率略有提升

2022-05-01 10:40:54 1452 2

原创 【论文阅读】CVPR 2020:GaitPart: Temporal Part-based Model for Gait Recognition

论文信息: Chao Fan, Yunjie Peng, Chunshui Cao, Xu Liu, Saihui Hou,Jiannan Chi, Yongzhen Huang, Qing Li, Zhiqiang He 北京科技大学,北京航空航天大学,银河水滴,联想 CVPR 2020 关于步态识别的细粒度信息和局部信息的新的模型

2022-04-14 21:37:39 3795

原创 Tensorflow和Pytorch函数转换对照表

最近做实验在用,这里存一些Tensorflow和Pytorch基本的转换方法

2022-04-11 13:57:06 1436

原创 【论文阅读】GaitSet: Regarding Gait as a Set for Cross-View Gait Recognition

论文信息: 作者:Hanqing Chao, Yiwei He, Junping Zhang, Jianfeng Feng,复旦大学 AAAI 2019 也是步态识别方向的突破性大进展之一,用步态集合取代了之前广为使用的步态能量图GEI等

2022-04-05 19:00:12 3777 3

原创 【论文阅读】A Comprehensive Study on Cross-View Gait Based Human Identification with Deep CNNs

A Comprehensive Study on Cross-View Gait Based Human Identification with Deep CNNs 作者:Zifeng Wu, Yongzhen Huang, Liang Wang, Xiaogang Wang, and Tieniu Tan TPAMI 2017 这也是第一篇将深度学习应用于步态识别的文章,结果上也有了很大的飞跃。

2022-04-02 22:21:54 1064

原创 4.2【LeetCode练习】二叉树展为链表

二叉树展开为链表给你二叉树的根结点 root ,请你将它展开为一个单链表:展开后的单链表应该同样使用 TreeNode ,其中 right 子指针指向链表中下一个结点,而左子指针始终为 null 。展开后的单链表应该与二叉树 先序遍历 顺序相同。示例 1:输入:root = [1,2,5,3,4,null,6]输出:[1,null,2,null,3,null,4,null,5,null,6]示例 2:输入:root = []输出:[]示例 3:输入:root = [0]输

2022-04-02 20:06:58 652

原创 3.30【LeetCode练习】省份数量

省份数量有 n 个城市,其中一些彼此相连,另一些没有相连。如果城市 a 与城市 b 直接相连,且城市 b 与城市 c 直接相连,那么城市 a 与城市 c 间接相连。省份 是一组直接或间接相连的城市,组内不含其他没有相连的城市。给你一个 n x n 的矩阵 isConnected ,其中 isConnected[i][j] = 1 表示第 i 个城市和第 j 个城市直接相连,而 isConnected[i][j] = 0 表示二者不直接相连。返回矩阵中 省份 的数量。示例 1:输入:isConn

2022-03-30 21:42:30 210

原创 3.28【LeetCode练习】课程表

第一个图论题,dfs,去看题解了…关键词: 有向图、dfs回溯

2022-03-28 14:36:59 1225

原创 【论文阅读】Set Residual Network for Silhouette-Based Gait Recognition

论文信息: 作者:Saihui Hou, Xu Liu, Chunshui Cao, and Yongzhen Huang 中国科学院自动化研究所,银河水滴,北京师范大学 TBIOM 2021 通过残差连接建模轮廓特征与集合特征之间的关系,并通过双特征金字塔的方式充分利用步态的浅层特征并降低运算成本

2022-03-26 22:29:33 3945

原创 3.25【LeetCode练习】重排链表

重排链表给定一个单链表 L 的头节点 head ,单链表 L 表示为:L0 → L1 → … → Ln - 1 → Ln请将其重新排列后变为:L0 → Ln → L1 → Ln - 1 → L2 → Ln - 2 → …不能只是单纯的改变节点内部的值,而是需要实际的进行节点交换。示例 1:输入:head = [1,2,3,4]输出:[1,4,2,3]示例 2:输入:head = [1,2,3,4,5]输出:[1,5,2,4,3]提示:链表的长度范围为 [1, 5 * 104

2022-03-25 17:37:34 1978

原创 3.24【leetcode练习】两数相加

两数相加给你两个 非空 的链表,表示两个非负的整数。它们每位数字都是按照 逆序 的方式存储的,并且每个节点只能存储 一位 数字。请你将两个数相加,并以相同形式返回一个表示和的链表。你可以假设除了数字 0 之外,这两个数都不会以 0 开头。示例 1:输入:l1 = [2,4,3], l2 = [5,6,4]输出:[7,0,8]解释:342 + 465 = 807.示例 2:输入:l1 = [0], l2 = [0]输出:[0]示例 3:输入:l1 = [9,9,9,9,9,9

2022-03-24 20:58:39 204

原创 3.23【leetcode练习】合并两个有序链表

合并两个有序链表将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。示例 1:输入:l1 = [1,2,4], l2 = [1,3,4]输出:[1,1,2,3,4,4]示例 2:输入:l1 = [], l2 = []输出:[]示例 3:输入:l1 = [], l2 = [0]输出:[0]提示:两个链表的节点数目范围是 [0, 50]-100 <= Node.val <= 100l1 和 l2 均按 非递减顺序 排

2022-03-23 09:15:31 105

原创 【数据结构代码练习】线性表1

学号查询题目描述有 n(n≤2×106)n(n \le 2 \times 10^6)n(n≤2×106) 名同学陆陆续续进入教室。我们知道每名同学的学号(在 1 到 10910^9109 之间),按进教室的顺序给出。上课了,老师想知道第 ii 个进入教室的同学的学号是什么(最先进入教室的同学 i=1),询问次数不超过 10510^5105 次。输入格式第一行 2 个整数 n 和 m,表示学生个数和询问次数。第二行 n 个整数,表示按顺序进入教室的学号。第三行 m 个整数,表示询问第几个进入教室

2022-03-19 17:04:16 146

原创 3.16【leetcode练习】最大子数组和

最大子数组和给你一个整数数组 nums ,请你找出一个具有最大和的连续子数组(子数组最少包含一个元素),返回其最大和。子数组 是数组中的一个连续部分。示例 1:输入:nums = [-2,1,-3,4,-1,2,1,-5,4]输出:6解释:连续子数组 [4,-1,2,1] 的和最大,为 6。示例 2:输入:nums = [1]输出:1示例 3:输入:nums = [5,4,-1,7,8]输出:23提示:1 <= nums.length <= 10510^

2022-03-19 11:28:53 303

原创 3.16【leetcode练习】两数之和

两数之和给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那 两个 整数,并返回它们的数组下标。你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。你可以按任意顺序返回答案。示例 1:输入:nums = [2,7,11,15], target = 9输出:[0,1]解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。示例 2:输入:nums = [3,2,4], ta

2022-03-16 16:20:28 95

原创 预训练语言模型(五):Self-attention

目录Self-Attention1. 比较相似度2. 进行softmax操作3. 对V(Values)进行加权求和关于矩阵怎么来的Self-Attention参考一个很全的总结:预训练语言模型的前世今生 - 从Word Embedding到BERT同时也参考了李宏毅老师self-attention这里是老师讲解的ppt:https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/self_v7.pdfSelf-Attention首先对注意力

2022-02-07 14:47:44 1118

原创 预训练语言模型(四):ELMo模型

目录ELMo模型模型结构公式参考一个很全的总结:预训练语言模型的前世今生 - 从Word Embedding到BERTELMo也参考了这个:【NLP-13】ELMo模型(Embeddings from Language Models)这里提出的一个新的问题是:Word2Vec通过大规模语料对每个单词训练出固定词向量,但没有办法解决多义词的问题,ELMo就是为了这个任务而诞生的。它的核心是给予了每个token一个Word Embedding,即每个句子中样貌相同的词汇也会有不同的Embedding。

2022-02-02 15:09:08 5470

原创 预训练语言模型(零):一些预备的数学知识

目录一、预备知识1. sigmoid函数2. 逻辑回归3. 贝叶斯公式4. 哈夫曼编码二、使用步骤1.引入库2.读入数据总结一、预备知识1. sigmoid函数sigmoid函数的定义如下:σ(x)=11+e−x(1)\sigma (x)= \frac{1}{1+e^{-x}} \tag{1}σ(x)=1+e−x1​(1)函数定义域为 (−∞,+∞)(-\infty ,+\infty)(−∞,+∞) ,值域为 (0,1)(0,1)(0,1) ,下图为sigmoid函数的图像:其导函数的形

2022-02-02 14:53:38 521

原创 预训练语言模型(三):RNN和LSTM

参考一个很全的总结:预训练语言模型的前世今生 - 从Word Embedding到BERT这儿对预训练模型又有了一点理解,也是之前在做VGG实验时在困惑的点,预训练模型在使用时可以有两种做法:一种是Frozen,将参数锁住,在下游应用时不再改变;另一种就是Fine-Tuning,即将参数初始化为预训练模型的参数,下游应用时仍然可以改变。好了进入正题:RNNRNN结构最大的特点就是融入了时序信息,其结构如下图所示:左侧部分称为RNN的一个timestep,对于每一个时刻 ttt ,输入的 xtx

2022-01-30 08:37:50 1699

原创 预训练语言模型(二):词向量和Word2Vec模型

参考一个很全的总结:预训练语言模型的前世今生 - 从Word Embedding到BERT词向量主要针对预训练语言模型(一)中的one-hot和词向量 C(ωi)C(\omega_i)C(ωi​)。one-hot不再赘述,只说缺点:当使用余弦相似度计算向量之间的相似度时,发现不同的词相似度都是为0,无法提现词之间的相似性问题。C(ωi)C(\omega_i)C(ωi​) 就是我们常说的Word Embedding,仍然是这个图:这是一个 V×mV\times mV×m 的矩阵 QQQ ,可以通

2022-01-27 15:02:54 1321

原创 预训练语言模型(一):定义及语言模型

预训练语言模型(一):定义及语言模型关于语言模型统计语言模型神经网络语言模型参考一个很全的总结:预训练语言模型的前世今生 - 从Word Embedding到BERT关于语言模型语言模型的本质是计算一个句子序列的概率。即对于语言序列 ω1,ω2,…,ωnω_1,ω_2,…,ω_nω1​,ω2​,…,ωn​ ,语言模型就是计算 P(ω1,ω2,…,ωn)P(ω_1,ω_2,…,ω_n )P(ω1​,ω2​,…,ωn​) 。由此引入乘法公式:P(ABCD)=P(A)P(B│A)P(C│AB)P(D

2022-01-27 11:29:52 1207

原创 关于全连接层的参数个数计算

CNN中的几个概念(全连接,卷积,线性,全卷积)理解 - 知乎

2021-12-21 16:23:56 3478

原创 【论文学习】Knowledge Graph Embedding-Based Domain Adaptation for Musical Instrument Recognition

论文信息: 发表于3 August 2021,MDPI期刊(sci)背景: CH(cultural heritage)领域数据十分稀缺,原因是版权限制了重用和发布,因此不能总是有足够的数据用于训练,尤其是涉及到文化遗产的收藏品。模型在测试数据上可以很好地泛化,但不太能在新的数据集上进行泛化,有其是处理难以标记和获取的文化遗产数据时,这个挑战会增加。从头开始重新训练神经网络被认为是不可行的,在大型数据集上使用预训练模型,然后只重新训练最后一层,大大提高了模型的性能,但因为源数据集类不一定与目标域重叠。工业

2021-10-13 12:08:30 182

原创 基于文字情感的民族音乐智能生成项目Bert+Magenta【音乐生成部分】(二)

项目源码:https://github.com/DreamShibei/ChineseMusicGenerator其他模块:基于文字情感的民族音乐智能生成项目Bert+Magenta----文本情感部分基于文字情感的民族音乐智能生成项目Bert+Magenta【音乐生成部分】(一)在我当前的理解下,midi文件不同于mp3,、wav等音乐文件,它是一种数字信号,存储的是音符信息,因此,对于midi文件音色的添加,我们采用很原始的为音乐添加soundfont音色文件的方式。由于我们的项目是在ubu

2021-08-16 09:01:44 664

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除