深度学习
文章平均质量分 63
是大糊涂不聪明
写博客的目的是为了方便自己,经常找不到需要的程序,记本子上又容易丢...
如果有错误的地方啊,麻烦指出来哈
展开
-
利用RepVGG训练一个cifar-10数据
快速使用repvgg训练分类网络原创 2022-08-13 17:16:50 · 1467 阅读 · 7 评论 -
mobilenet-v2预测单张图片注意要点
使用model预测单张图的时候,一定要unsqueeze(img, dim=0),这样才能增加一个fake batch dimensionclass_indice = json.load(json_file),目的是为了后面显示哪一类别,对应的名字model = MobileNetV2(num_classes=5),这里一定要写num_classes = 5 ,要不然,就采用默认值了…模型的预测结果output,是没有概率值的,只能自己使用softmax(),计算一下 。 argmax()返回的是自.原创 2021-03-02 20:29:00 · 543 阅读 · 0 评论 -
MobileNet-V2理解以及pytorch源码实现
1.原理和创新点整个网络中,主要有以下两种sequence。当s=1 , 同时 k=k撇, 也就是输入channel = 输出channel 时候,需要加一个shortcut中间的3x3conv,采用的是群组卷积的特例, DepthWise Conv,此时 gropus = hidden_channel论文中提出,当维度较低时,应该采用线性激活函数,高维时,采用ReLU6激活函数。丢失信息较少针对网络的参数表格,主要有以下几点:当一个sequence重复多次时( 即n>原创 2021-03-02 19:53:01 · 1764 阅读 · 2 评论 -
ROI Pooling原理
1.ROI简介1.ROI是经过最后Conv层后feature map的一个矩形框2.每个ROI由(r,c,h,w)组成。r,c指的是左上角的坐标;h,w指的是宽和高ROI Pooling 把一个h x w 大小的格子划分为H x W个格子,因而每个格子的大小为(h/H, w/W)注意,无法整除的话就会出现取地板除,对应的取ceiling 对每个格子分别做max pooling2.Examplefeature map:8x8,一个ROI,输出:为2*2(这里所谓的输入输出都是针对l原创 2021-02-19 23:56:58 · 1255 阅读 · 0 评论 -
Dropout解释和应用实例
1.大白话解释添加链接描述2.简单应用实例keras应用dropout原创 2020-12-06 09:23:12 · 358 阅读 · 0 评论 -
吴恩达老师深度学习,BN层的作用
1.先看普通情况归一化的作用毫无疑问,这个是能加速训练的并且能避免受到量纲的影响2.单层神经网络中图片上面的是单一网络肯定ok的那么,对于深层网络如何呢?我们看第三层网络的参数w[3]、b[3]能否通过归一化a[2]呢来加速第三层的训练速度实际上可能是在激活函数之前归一化更多,也就是归一化z[2]因此以这个为例,介绍BN的算法3.BN的实现对于图片左端而言对于某一层的输入Z[L](这是一个向量)有m个样本(批次归一化)先将每个Z[i]都转为(0,1)标准分布后再通过参原创 2020-12-05 20:21:48 · 652 阅读 · 0 评论 -
GoogleNet系列解读(very good的那种)
1.我觉得非常好的东西GoogLeNet系列解读转载 2020-11-17 15:16:42 · 93 阅读 · 0 评论 -
卷积深入理解
1.单个卷积核 -> 单张图一个5x5x3的卷积核卷积一次,形成一个平面,就是相当于学到“1”个特征多来几个不同的卷积核,就能学习不同的特征所以要有好多个卷积核we are going to have a set of multiple filterswe stack these up to get a “new image” of 28x28x62.不同层学习的特征不同不同的卷积层,学习到的是不同层级的特征,low_level 可能是边缘啊,之类的mid 可能是斑点。。原创 2020-11-13 16:57:37 · 185 阅读 · 0 评论 -
如何用卷积层代替FC
原创 2020-11-13 15:47:00 · 325 阅读 · 0 评论 -
AveragePooling1D和GlobalAveragePooling1D的区别
区别转载 2020-09-28 08:53:50 · 614 阅读 · 0 评论