![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
qq_41978139
这个作者很懒,什么都没留下…
展开
-
使用PyTorch中的预训练模型进行图像分类
PyTorch的TorchVision模块中包含多个用于图像分类的预训练模型,TorchVision包由流行的数据集、模型结构和用于计算机视觉的通用图像转换函数组成。一般来讲,如果你进入计算机视觉和使用PyTorch,TorchVision可以提供还多便利的操作! 1、使用预训练模型进行图像分类 预训练模型是在像ImageNet这样的大型基准数据集上训练得到的神经网络模型。深度学习社区从这些开源模型中获益良多,这也是计算机视觉研究迅速发展的主要原因之...转载 2020-12-23 15:12:07 · 4232 阅读 · 2 评论 -
A Lightened CNN for Deep Face Representation
一个小巧的人脸识别CNN网络 https://github.com/AlfredXiangWu/face_verification_experiment 当前基于CNN网络的人脸识别的文献可以说是满天飞,虽然效果不错,但是计算量大是一个问题。导致其难以用于嵌入式设备或手机里。当前关于人脸识别的CNN网络问题如下:1)很深的CNN网...转载 2020-12-17 15:58:11 · 128 阅读 · 0 评论 -
深度学习笔记六:常见激活函数总结
一.激活函数概览 基本上,入门深度学习的第一件事情就是了解”神经元”的构造,激活函数算是最基本的一个”部件”了吧.那激活函数到底有什么用呢?为什么需要激活函数?激活函数的定义是什么呢? 下面这篇论文提供了激活函数的定义以及常见的”饱和”的定义,以及对于激活函数的一些思考.大家可以参考一下. Noisy Activation Fu...转载 2020-12-17 14:31:07 · 190 阅读 · 0 评论 -
深度学习笔记五:卷积神经网络CNN(基本理论)
最开始先把这篇笔记的博客和网络上面的资源先贴出来,方便大家查找。至于书在一开始的笔记中就已经提到过了,这里就不再反复写了。 http://neuralnetworksanddeeplearning.com/chap6.html http://cs231n.github.io/convolutional-networks/ 一.初...转载 2020-12-17 14:29:15 · 255 阅读 · 0 评论 -
卷积神经网络(0)----基本原理
 ...转载 2020-12-17 10:39:43 · 289 阅读 · 1 评论 -
深度学习笔记:卷积神经网络(CNN)
深度学习笔记二:卷积神经网络(CNN) </h1> <div class="clear"></div> <div class="postBody"> 1|0卷积神经网络CNN1|11. 绪论1|01. 卷积神经网络的应用基本应用:分类、检索、检测、分割1|02. 传统神经网络 VS 卷积神经网络深度学习三部曲:放一个知乎上写的辅助理...转载 2020-11-16 15:48:10 · 214 阅读 · 0 评论 -
【PyTorch】详解pytorch中nn模块的BatchNorm2d()函数
基本原理 在卷积神经网络的卷积层之后总会添加BatchNorm2d进行数据的归一化处理,这使得数据在进行Relu之前不会因为数据过大而导致网络性能的不稳定,BatchNorm2d()函数数学原理如下: ...转载 2020-11-16 15:24:54 · 835 阅读 · 0 评论 -
深度学习与Pytorch入门实战(九)卷积神经网络&Batch Norm
深度学习与Pytorch入门实战(九)卷积神经网络&Batch Norm </h1> <div class="clear"></div> <div class="postBody">目录1. 卷积层1.1 torch.nn.Conv2d() 类式接口1.2 F.conv2d() 函数式接口2. 池化层Pooling(下采样)2.1 torch....转载 2020-11-16 15:22:52 · 294 阅读 · 0 评论 -
argparse.ArgumentParser()用法解析
argparse是一个Python模块:命令行选项、参数和子命令解析器 argparse模块可以让人轻松编写用户友好的命令行接口。程序定义它需要的参数。然后argparser将弄清 是在深度学习中管理超参数的好办法 1.首先创建解析器 parser = argparse.Ar...转载 2020-11-16 14:40:11 · 425 阅读 · 0 评论 -
python进行参数解析及argparse.ArgumentParser()的使用
argparse - 命令行解析库 argparse是一个受optparse启发的命令行解析库,功能: 1. 处理可选参数和位置参数2. 生成 usage messages3. 支持派生出sub-parsers123 argparse包含以下public...转载 2020-11-16 14:38:53 · 1031 阅读 · 0 评论 -
【Python学习笔记】参数解析器:argparse.ArgumentParser()用法解析
一、定义 argparse是一个Python模块:命令行选项、参数和子命令解析器 二、使用步骤 2.1 创建解析器 使用 argparse 的第一步是创建一个 ArgumentParser 对象。 ArgumentParser 对象包含将命令行解析成 Python 数据类型所...转载 2020-11-11 15:47:21 · 683 阅读 · 0 评论 -
理解dropout
理解dropout 开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。 dropout是CNN中防止过...转载 2020-11-09 14:55:50 · 469 阅读 · 0 评论 -
深度学习笔记1:池化 全连接 激活函数 softmax
1. 池化 池化层的输入一般来源于上一个卷积层,主要作用是提供了很强的鲁棒性(例如max-pooling是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,pooling后的结果仍不变),并且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所...转载 2020-11-09 14:30:42 · 2362 阅读 · 0 评论 -
ResNet-50网络理解
本文主要针对ResNet-50对深度残差网络进行一个理解和分析 ResNet已经被广泛运用于各种特征提取应用中,当深度学习网络层数越深时,理论上表达能力会更强,但是CNN网络达到一定的深度后,再加深,分类性能不会提高,而是会导致网络收敛更缓慢,准确率也随着降低,即使把数据集增大,解决过拟合的问题,分类性能和准确度也不会提高。Kaiming大神等人发现残差网络能够解决这一问题。这里首先放上一张ResNet的各种网络结构图(图1): 重点说明一下ResNet-50,可以看到图1中所示,ResNet-50经过了转载 2020-11-05 15:25:01 · 3790 阅读 · 2 评论 -
深度学习笔记(4):1.4-1.5:CNN中常用两大基本操作:padding、strided convolutions
1.4 padding 在深度学习中,需要学会的一个基本卷积操作就是padding,padding是什么意思呢? 之前未使用padding时,假设我们的图片是6*6的,在使用3*3的filter之后,图片变为4*4的,发现了什么?图片使用卷积操作之后变小了,这还只是使用一次,如果我们在深层网络中需要使用多次呢?可想而知,图片就会变得越来越小,甚至会缩小到1*1,我们当然不希望在...转载 2020-11-05 14:29:43 · 376 阅读 · 0 评论 -
(转)反向传播算法(BackPropagation,BP)
原 反向传播算法(BackPropagation,BP) ...转载 2019-07-29 09:57:45 · 367 阅读 · 0 评论 -
(转)tf.truncated_normal的用法
转 tf.truncated_normal的用法 ...转载 2019-08-06 14:50:51 · 177 阅读 · 0 评论 -
深度学习: 学习率 (learning rate)
深度学习: 学习率 (learning rate)Introduction学习率 (learning rate),控制 模型的 学习进度 : lr 即 stride (步长) ,即反向传播算法中的 ηη :ωn←ω...转载 2020-06-22 21:21:15 · 1636 阅读 · 0 评论 -
(转)神经网络中concatenate和add层的不同
原 神经网络中concatenate和add层的不同 ...转载 2019-08-06 15:23:17 · 979 阅读 · 0 评论 -
(转)深度学习1——Maxout网络学习
原 深度学习(二十三)Maxout网络学习 ...转载 2019-07-31 16:35:27 · 109 阅读 · 0 评论