- 博客(6)
- 资源 (18)
- 收藏
- 关注
转载 如何理解1*1卷积核
我们都知道,卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。 但是在学习卷积神经网络的过程中,我们常常会看到一股清流般的存在—1*1的卷积。比如在残差网络的直连里: 残差网络的Bootleneck残差模块里:在GoogleN...
2018-04-26 09:57:13 2180
转载 pytorch学习5:实现autoencoder
点击打开链接盗图一张,自动编码器讲述的是对于一副输入的图像,或者是其他的信号,经过一系列操作,比如卷积,或者linear变换,变换得到一个向量,这个向量就叫做对这个图像的编码,这个过程就叫做encoder,对于一个特定的编码,经过一系列反卷积或者是线性变换,得到一副图像,这个过程叫做decoder,即解码。所以现在自动编码器主要应用有两个方面,第一是数据去噪,第二是进行可视化降维。然而自动编码器还...
2018-04-23 18:19:32 13600 4
转载 pytorch学习3:逻辑回归
点击打开链接上一节介绍了简单的线性回归,如何在pytorch里面用最小二乘来拟合一些离散的点,这一节我们将开始简单的logistic回归,介绍图像分类问题,使用的数据是手写字体数据集MNIST。logistic回归logistic回归简单来说和线性回归是一样的,要做的运算同样是 y = w * x + b,logistic回归简单的是做二分类问题,使用sigmoid函数将所有的正数和负数都变成0-...
2018-04-23 10:38:09 865
转载 pytorch学习2:线性回归
点击打开链接线性回归对于线性回归,相信大家都很熟悉了,各种机器学习的书第一个要讲的内容必定有线性回归,这里简单的回顾一下什么是简单的一元线性回归。即给出一系列的点,找一条直线,使得这条直线与这些点的距离之和最小。import torchfrom torch import nn, optimfrom torch.autograd import Variableimport numpy as n...
2018-04-23 10:19:31 1830 1
转载 pytorch学习1.Transfer Learning tutorial
1.在实践中,很少悠然从头开始训练整个卷积网络(卷积初始化),因为拥有足够大的数据集比较少见。相反,它常见的pretain一个非常大数据集convNet(例如ImageNet,其中包含1000个类别120万的图像),然后使用无论是初始化或感兴趣的任务固定的特征提取。这两种主要迁移学习场景如下所示:#Finetuning网络:我们用一个预训练的网络来初始化网络,而不是随机初始化网络,就像在Iamge...
2018-04-20 16:09:45 716
转载 目标追踪——相关滤波追踪论文翻译:Visual Object Tracking using Adaptive Correlation Filters
https://blog.csdn.net/denghecsdn/article/details/78877220Abstract Although not commonly used, correlation filters can track complex objects through rotations, occlusions and other distractions at o...
2018-04-03 10:15:35 1574 2
chi_sim.trainddata
2016-10-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人