![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 89
深度学习
calm-one
这个作者很懒,什么都没留下…
展开
-
自组织映射神经网络(SOM)
自组织映射神经网络(Self-Organizing Map,SOM)是无监督学习方法中一类重要方法,可以用作聚类、高维可视化、数据压缩、特征提取等多种用途,其融入了大量人脑神经元的信号处理机制,有着独特的结构特点。...原创 2022-06-19 19:37:39 · 4938 阅读 · 1 评论 -
为什么用生长型神经气体网络(GNG)?
上世纪 90 年代,人工神经网络研究人员得出了一个结论:有必要为那些缺少网络层固定拓扑特征的运算机制,开发一个新的类。也就是说,人工神经在特征空间内的数量和布置并不会事先指定,而是在学习此类模型的过程中、根据输入数据的特性来计算,独立调节也与其适应。...原创 2022-06-19 19:10:32 · 2605 阅读 · 1 评论 -
【论文解读】持续学习三种情形
持续(增量)学习三种场景原创 2022-06-17 22:53:40 · 5729 阅读 · 3 评论 -
【论文解读】前向可兼容的少样本增量学习
本文关注的问题是少样本类增量学习(Few Shot Class Incremetal Learning, FSCIL)当前主流的方法基本上都是在学习新类的同时不忘记旧类,侧重于对于旧类的遗忘问题,本文中称这种为后向兼容性。原创 2022-06-14 21:15:22 · 2548 阅读 · 2 评论 -
【论文解读】vCLIMB: 一种新颖的视频类增量学习基准
持续学习(CL)在视频域中探讨了不足。存在很少的工作包含在任务中划分不平衡的类分布,或者在不合适的数据集中研究问题。我们介绍了vCLIMB,这是一个新颖的视频持续学习基准。原创 2022-06-14 20:10:38 · 465 阅读 · 0 评论 -
深度学习中的优化算法如何理解--SGD
文章目录1. SGD算法学了很久的深度学习,忽然感觉对于知识的摄入只是填鸭式学习,少了主动思考,因此准备就简单问题的理解出发对已经学习知识做系统整理。提到优化算法那么就要涉及到优化问题,简单介绍一下什么是凸集、凸函数、凸优化。凸集:集合中任意两个样本连接后的线段仍然属于集合,那么就是凸集。凸函数:两个自变量的函数值求和总是大于等于自变量中值的函数值。凸优化:给定变量属于凸集,目标函数是凸函数,那么求解这一问题就是属于凸优化问题。(但是深度学习中大多数都是非凸问题…,简单理解,多多指正)1.原创 2022-03-01 22:11:25 · 2090 阅读 · 0 评论 -
【论文精读】基于骨架行为识别(一)—STGCN
论文链接文章目录1. 摘要2. 介绍3. 相关工作4. 时空图卷积5. 实验6. 总结1. 摘要2. 介绍3. 相关工作4. 时空图卷积5. 实验6. 总结原创 2022-02-25 22:00:38 · 10326 阅读 · 1 评论 -
【论文精读】一类分类器(一)—DSVDD
文章目录摘要1.介绍2.相关工作3.Deep SVDD3.1 深度支持向量描述器目标摘要尽管深度学习在许多机器学习问题上取得了巨大的进步,但异常检测的深度学习方法相对缺乏。那些存在的方法包括训练网络来执行异常检测以外的任务,即生成模型或压缩,它们反过来适用于异常检测,他们没有训练基于异常检测的目标。在这篇文章中介绍一种新的异常检测方法-DSVDD,训练是基于异常检测目标的。对深层体制的适应需要我们的神经网络和训练过程满足某些性质,这是我们在理论上证明的。我们在MNIST和CIFAR-10(图像基准数据集原创 2022-02-24 19:43:07 · 3660 阅读 · 1 评论 -
池化分类、作用简单总结
池化分类平均池化:对邻域内特征点求平均正向传播:邻域内取平均反向传递:梯度根据邻域大小被平均,然后传递给索引位置参考链接:平均池化最大池化:对邻域内特征点求最大值正向传播:邻域内求最大值,并记住索引位置,用于反向传播反向传播:梯度传播到邻域内最大值的索引位置,其他位置补0参考链接:最大池化全局平均池化:特征图全局平均一下输出一个值,常与全连接层做对比全局自适应池化:自适应池化Adaptive Pooling会根据输入的参数来控制输出output_size,而标准的Max/AvgP原创 2021-09-15 21:57:42 · 3991 阅读 · 0 评论 -
全连接-普通卷积-深度可分离卷积-分组卷积-计算量和参数量
全连接-普通卷积-深度可分离卷积-分组卷积-计算量和参数量一个全连接的参数量:params=(Ni+1)×No params=(N_i+1)\times{N_o} params=(Ni+1)×No其中,NiN_iNi 表示输入特征向量权重个数,NoN_oNo 表示输出特征向量的权重个数,+1表示偏置,直接理解参数量与输入输出个数有关。一个全连接的计算量:FLOPs=[Ii+(Ii−1)+1]×Io FLOPs= [I_i+(I_i-1)+1]\times{I_o} FLOP原创 2021-09-11 23:21:39 · 1980 阅读 · 2 评论