深度学习
贪玩老学长
当你觉得数学很重要的时候,你就是真正的科研人员了。
我是平头哥,只想打死各位或者被各位打死。
--菜鸟祥哥
展开
-
第10讲 Opencv卷积神经网络CNN
深度原创 2020-09-19 15:43:44 · 1541 阅读 · 0 评论 -
Pytorch实现手写体识别(基于CNN卷积神经网络)实操详解(附完整代码free)
手写体作为深度学习的“Hello world”,几乎所有的课程都会讲到这个,今天带着大家一些看看吧。如果对你有所帮助,点个赞给个小关注,以后一起交流学习。前言首先和大家讲讲我为啥会看到这个,因为我需要写论文,关于图像增强的,比如夜视,曝光,去雨,去雪,去雾等,以往采用的是传统的方法“直方图,暗通道,retinex”等,现在随着深度学习的发展,只从12年人机大战,深度学习迅速爆棚,由于结果惊艳,所以深度学习进入了人们感兴趣的领域。好不夸张的说,现在各行各业都在使用深度学习,这个也是我需要研究的课题。原创 2020-09-09 10:57:57 · 4123 阅读 · 0 评论 -
卷积神经网络11(卷积神经网络高级加深)
多卷积核的使用不同方式结束后,图像尺寸长宽一样可以通过卷积或者padding1 X 1 卷积作用?单、多通道信息融合信息融合,不用别的信息做运算,仅仅对自身做运算。原创 2020-09-07 22:22:15 · 410 阅读 · 0 评论 -
卷积神经网络10(卷积基础知识补充)+实操代码,手写体识别,准确率高达98+%
对于batch 1 28 28 的图像用10个5 * 5核进行卷积,得到batch 10 (28 - 4) * (28 - 4) 即》(batch 10 24 * 24)经过一个2 * 2 最大池化,得到(batch 10 12 * 12)然后又经过20个5 * 5卷积核 输出(batch 20 8 * 8)经过一个2 * 2 最大池化,得到(batch 20 4 * 4)最后将其展开,输送到全连接层 20 * 4 * 4 = 320import torchfrom torchvisi.原创 2020-09-07 19:09:44 · 316 阅读 · 0 评论 -
卷积神经网络10(卷积基础)
全连接的使用,使得图像原有的位置发生改变,而卷积神经网络,是连续在一起的。栅格图像CCD做卷积通道数会改变卷积运算过程数乘单通道多通道共享权重# 测试import torchin_channels,out_channels = 5,10width,height = 100,100kernel_size = 3batch_size = 1input = torch.randn(batch_size, in原创 2020-09-06 22:19:34 · 137 阅读 · 0 评论 -
卷积神经网络09(多分类问题)太详细的,手把手
ont-hot 独热编码使用e^z为了保证大于0损失为0,对于分类是没有意义的练习import torchcriterion = torch.nn.CrossEntropyLoss()Y = torch.LongTensor([2,0,1])Y_pred1 = torch.tensor([[0.1,0.2,0.9], [1.1,0.1,0.2], [0.2,2.1,0.1]])Y_...原创 2020-09-06 19:54:01 · 1635 阅读 · 0 评论 -
卷积神经网络08(数据及加载)
Batch-Size所有样本都参与训练称为一个epoch每次训练用的样本数量叫做batch-size迭代数据及进行打乱(shuffle)Dataset是一个抽象类,是不能直接实例化的而DataLoader是可以直接实例化的用到的loader函数,需要改写成,在0.4版本下会出现这样的问题还是4步,准备数据集,设计模型,建立模型和优化,训练例如minist数据集import torchfrom torch.utils.data import Datasetfrom原创 2020-09-06 15:28:57 · 410 阅读 · 0 评论 -
卷积神经网络07(多维特征输入)pytorch 关于训练的轮数我也不知道怎么选,有没有朋友可以交流一下经验?
可以进行降维也可以进行升维,其实就是矩阵的计算。升维会出现一个问题,就是超参数的查找和应用。隐层越多,学习能力越强,单数学习能力太强也不是很好,会把模型里面的噪音也学习进来。(比如:学习能力太强了,就类似于把书本背死了)数据集可以在自行下载:链接: https://pan.baidu.com/s/1Ku5c99yDHNFMt8EJAcF5LA 提取码: n4xh如果失效了可以私信我torch.sigmoid、torch.nn.Sigmoid和torch.nn.funct...原创 2020-09-04 15:01:28 · 1018 阅读 · 0 评论 -
卷积神经网络06(逻辑回归)Pytorch
逻辑回归,做分类问题minist dataset线性回归得到的是具体的值,而逻辑回归得到的是概率。如果只有两个类别,得到的就是二分类。sigmoid代码运行有问题,不知道问题出在哪里,感兴趣的小伙伴可以试试看import torchimport numpy as npimport matplotlib.pyplot as pltimport torch.nn.functional as F# 1 数据准备,使用torch。tensor进行x_data = torc原创 2020-09-04 10:41:22 · 917 阅读 · 1 评论 -
pytorch中的激活函数(代码和绘制)
import torchimport torch.nn.functional as Ffrom torch.autograd import Variableimport matplotlib.pyplot as plt# fake datax = torch.linspace(-5, 5, 200) # 使用torch生成500个等差数据x = Variable(x)x_np = x.data.numpy() # 转换成 np 类型y_relu = F.relu(x).data..原创 2020-09-04 10:22:54 · 451 阅读 · 0 评论 -
卷积神经网路05补充(pytorch线性回归代码)用于更加难的模型扩充
基础网络模型搭建代码import torchimport numpy as npimport matplotlib.pyplot as plt# 1 数据准备,使用torch。tensor进行x_data = torch.tensor([[1.0],[2.0],[3.0]])y_data = torch.tensor([[2.0],[4.0],[6.0]])# 2 解释:定义一个类,继承Module,然后进行初始化操作class LinearModel(torch.nn.Module):原创 2020-09-03 17:26:34 · 108 阅读 · 0 评论 -
卷积神经网络05(使用Pytorch构建模型)
步骤:第一步准备数据集2 设计模型3 使用自带的函数进行优化4 训练的周期原创 2020-09-03 17:09:21 · 357 阅读 · 0 评论 -
卷积神经网络04补充(反向传播)超级详细的pytorch基础知识实操
为了提高模型的复杂度,使用非线性函数(sigmoid,relu等)求导,链式求导。前馈运算tensor介绍:data和 grad数据存放在tensor中:常亮,向量,矩阵,张量grad用于存放导数创建模型,其实就是在构建于import torchx_data = [1.0,2.0,3.0]y_data = [2.0,4.0,6.0]w = torch.tensor([1.0])w.requires_grad = Truew.requires_grad = Tru.原创 2020-09-03 12:53:08 · 330 阅读 · 0 评论 -
卷积神经网络04(反向传播)
计算图过程多隐藏层的时候,就相当于对前一层的结果进行原创 2020-09-01 17:35:34 · 135 阅读 · 0 评论 -
卷积神经网络03(梯度下降)
回顾:线性回归回顾上面的是一个w(权重),可以直接进行搜索,比较简单,但是如果是多个变量,在使用这种方法查找就很费时,并且有时候还计算不出来。还有一个问题就是,如果是很多权重,就会是多维的,并且还会有局部最小值的问题。因此就有本节的梯度下降法出现虽然不能得到最优解,但是可以得到局部最小值可能会出现局部最小值的情况(非凸函数)局部最优因此,梯度下降只能找到局部最优,并不一定是局部最小值(全局最优点)。有一种特殊情况,叫做鞍点由于g在某一段是0,那么就没有办法进行迭代了。随机梯度下原创 2020-09-01 16:30:03 · 3033 阅读 · 1 评论 -
深度学习可视化visdom使用教程
https://blog.csdn.net/qq_19655645/article/details/89097058visdom使用教程转载 2020-09-01 11:36:45 · 722 阅读 · 0 评论 -
卷积神经网络02(线性模型、穷举法)
步骤:1 数据集2 模型选择(根据数据集的情况进行选择)3 训练(knn等)大部分都需要training4 推理训练好以后对以后的预测和应用输入 x预测 y以上监督学习训练好了以后需要测试集进行评估随机猜测(对于权重可以使用随机猜测进行)平均损失,可以看到当预测是3,6,9的时候,平均损失是14/3。因此为了得到比较好的模型,更好的反应理想分布,这个时候就要找最小的损失。另外,为什么要使用平方了,为了防止误差有负数,相互抵消了。MSE(Mean Square Error)原创 2020-09-01 11:18:23 · 515 阅读 · 0 评论 -
卷积神经网络01(深度学习概要介绍)
overview深度学习概要,基于规则-》基于机器学习-》基于深度学习深度学习竞赛错误率下降2015年第一次错误率降低到3%左右,首次超越人类。感知机利用仿生学进行实现反向传播 计算图前馈过程 反向过程模型很多,不用把所有的都学会,而是需要学会如何搭建模型。针对自己的任务目标去使用Pytorch的优势学习心得与感悟1 首先了解到深度学习的应用,在生活中各个方面都用涉及。2 然后知道了深度学习的起源以及发展3 通过从生物中延伸,了解到深度学习的真正来历..原创 2020-09-01 10:16:52 · 267 阅读 · 1 评论