深度学习
文章平均质量分 92
如魔
这个作者很懒,什么都没留下…
展开
-
经典CNN的实现 ResNet
我们先实现ResNet块,再用ResNet快构建经典CNN:ResNet原创 2022-03-14 14:37:57 · 1331 阅读 · 0 评论 -
经典CNN的实现 InceptionNet
经典CNN的实现 InceptionNetInceptionNetInceptionNet诞生于2014年,当年ImageNet竞赛冠军,Top5错误率为6.67%论文出处:Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions. In CVPR, 2015.InceptionNet旨在通过增加网络的宽度来提升网络的能力,与 VGGNet 通过卷积层堆叠的方式(纵向)相比,是一个不同的方向(横向)。要理解 InceptionN原创 2022-03-13 20:26:08 · 4173 阅读 · 0 评论 -
经典CNN的实现 LeNet AlexNet VGGNet
使用keras神经网络搭建“六步法”实现经典CNN:LeNet AlexNet VGGNet原创 2022-03-12 08:25:42 · 1672 阅读 · 0 评论 -
神经网络搭建六步法扩展
这一片文章,在神经网络搭建“六步法”上进行扩展。包括:自制数据集、数据增强,断点续训、参数提取、可视化、神经网络的应用。原创 2022-03-11 08:02:19 · 414 阅读 · 0 评论 -
keras神经网络搭建六步法
使用keras快速搭建神经网络,只需“六步”20行代码原创 2022-03-10 08:19:11 · 5174 阅读 · 0 评论 -
tensorflow中的常用函数与API 2
这一部分介绍TensorFlow中关于学习率策略、激活函数、损失函数、优化器提供的API。原创 2022-03-09 08:53:43 · 677 阅读 · 0 评论 -
tensorflow2中的基本概念与常用函数
虽然我们在之前学习了如何手动实现神经网络,那样非常易于我么你理解神经网络的原理个结构。但是就“编写一个可用的高效的神经网络“而言,手动编写太过于低效。因此这里我们介绍一下TensorFlow,帮助我们快速搭建神经网络,本篇文章就先介绍一下tensorflow2中的基本概念与常用函数。原创 2022-03-08 09:25:11 · 263 阅读 · 0 评论 -
动手实现深度神经网络7 实现CNN
经过了之前的学习,我们已经掌握了如何构造、优化和使用一个深度神经网络了。然而,单纯的深度神经网络无法考虑到图像中相邻像素中可能存在的联系。于是,这里我们将实现一种专门针对图像处理的卷积神将网络CNN。原创 2022-03-07 09:07:19 · 1252 阅读 · 0 评论 -
Python深度学习入门笔记之1
详细介绍感知机,神经网络的基础知识原创 2021-12-31 11:49:08 · 277 阅读 · 0 评论 -
Python深度学习入门笔记 2
介绍深度学习的学习方法,介绍损失函数和误差反向传播法原创 2022-01-02 20:51:36 · 2309 阅读 · 1 评论 -
Python深度学习入门笔记 3
这一部分介绍神经网络的学习中的一些重要观点,主题涉及寻找最优权重参数的最优化方法、权重参数的初始值、超参数的设定方法等。为了应对过拟合,本章还将介绍权值衰减、Dropout等正则化方法。原创 2022-01-12 20:08:34 · 822 阅读 · 0 评论 -
动手实现深度神经网络6 神经网络的优化之权值衰减与Dropout
机器学习的问题中,过拟合是一个很常见的问题。过拟合`指的是`只能拟合训练数据,但不能很好地拟合不包含在训练数据中的其他数据的状态。这一篇文章,我们介绍抑制过拟合的两种方法;权值衰减和Dropout。原创 2022-03-06 08:48:38 · 763 阅读 · 0 评论 -
动手实现深度神经网络5 神经网络的优化之参数更新优化
在之前的神经网络中,我们都是使用随机梯度下降法SGD对参数进行更新的,然而,虽然SGD实现简单易于理解,但是,它在解决某些问题时可能很没有效率。这篇文章我们介绍一些其他的更新参数的方法,并对几种方法进行比较。原创 2022-03-05 10:37:47 · 970 阅读 · 0 评论 -
动手实现深度神经网络4 封装成层
经过篇三篇文章,我们的神经网络已经能够较为高效、准确的完成手写数字的识别。但是,它仍然存在一些问题:不易扩展。神经网络模型一般都是由“层”来构成的。这里我们就是用封装的层来实现神经网络,并修改神经网络来展示层带来的便捷性。原创 2022-03-02 12:50:37 · 1334 阅读 · 0 评论 -
动手实现深度神经网络3 增加误差反向传播计算梯度&完成MNIST数据集手写数字识别
在这一部分中我们利用误差反向传播来计算梯度,误差反向传播计算梯度的速度大大超过了之前采用的数值微分发法。经过这次改进,我们的神经网络就能以很快的速度和较高的准确率完成MNIST数据集手写数字识别啦!原创 2022-03-01 16:56:47 · 2817 阅读 · 0 评论 -
动手实现深度神经网络2 增加批处理
在上一部分中,我们构造了一个简单的两层神将网络,上文中那个网络使用数值微分计算梯度,没有实现批处理,所以可以认为时不可用的。在着一部分中,批处理将会被实现。原创 2022-03-01 15:23:58 · 849 阅读 · 0 评论 -
动手实现深度神经网络1 两层神经网络(修改了关于权重b的配图错误)
使用python手写一个神经网络,当然实际可用的神经网络模型非非常复杂,涉及诸多实现细节和优化,因此,我们先从一个两层的神经网络开始,之后不断完善和改进。原创 2022-02-28 11:43:12 · 1356 阅读 · 0 评论 -
神经网络中的激活函数与损失函数&深入理解推导softmax交叉熵
介绍神经网络中常用的激活函数和损失函数,主要是介绍softmax交叉熵损失函数,并使用计算图手动推导softmax交叉熵反向传播过程。原创 2022-02-26 18:10:49 · 2310 阅读 · 0 评论 -
理解误差反向传播&用python实现自动微分
使用计算图理解误差反向传播,并且使用python实现自动微分原创 2022-02-25 11:45:12 · 1362 阅读 · 1 评论 -
Python深度学习入门笔记 5
我们介绍一下深度学习的一些性质特点,发展状况和未来方向等。这一部分没有什么具体的技术细节,也没有代码实现,只是作为后续进一步学习的简单前瞻。原创 2022-01-16 20:19:02 · 1138 阅读 · 0 评论 -
Python深度学习入门笔记 4 CNN
本文介绍卷积神经网络中的重要组成部分:卷积层和池化层,并简单介绍卷积神将网络CNN的实现原创 2022-01-16 14:04:48 · 1913 阅读 · 3 评论