![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络从入门到XX
文章平均质量分 81
贰拾肆画生
我在黑暗中前行,走在自己的朝圣路上。
展开
-
6、多层神经网络
多层神经网络前言步骤1、导入所需要的库2、确定神经网络结构及参数3、确定激活函数及其导数和验证4、进行参数初始化5、导入数据集6、查看数据集7、对结果进行预测8、计算误差9、计算参数梯度10、验证梯度的正确性11、得到误差和精确度前言经过之前的5个博客内容,我们已经完成了运用已有的数据集进行了一个简单的手写识别并且对参数进行了训练,使识别精确更加的准确。但是之前的神经网络只是用两层,一个输入层,一个输出层。但是一般的神经网络是有三层,输入层,隐藏层,输出层。我们现在就在原来的基础上再添加一层,隐藏层。当原创 2021-06-24 10:31:45 · 1797 阅读 · 0 评论 -
5、学习率、过拟合
Day6知识补充代码解释每日一句:你若盛开,蝴蝶自来。知识补充在上个博客中,我们已经学会对参数进行训练。但是我们的学习率learn_rate是固定的,这就会出现一个问题。我们将参数进行某个方向上的梯度下降,没训练一次,下降一次,因为学习率是固定的,所以我们下降的高度也是一样的。如果,我们下降到了对低点上面一点,我们再下降一次,过了最低点,又上去了。这就很尴尬了。再继续训练下去,只会在最低点周围反复横跳。永远达不到最低点。关键在于学习率,我们在一次训练结束后,要对学习率进行一个调整。至于怎么调整?我们可以原创 2021-06-15 00:34:26 · 3317 阅读 · 5 评论 -
4、验证正确性、训练网络
Day5知识补充代码解释每日一句:你只有走完必须走的路,才能过想过的生活。知识补充在上一篇博客中,我们通过手算的方式完成了梯度下降的推导过程,接下来我们将用代码来实现梯度下降,即对参数进行训练。1、写出softmax导数函数diag:对角矩阵outer:第一个参数挨个乘以第二个参数得到矩阵。def d_softmax(data): sm=softmax(data) return np.diag(sm)-np.outer(sm,sm)注意:可能有人会好奇第一项为什么是对角原创 2021-06-14 17:19:53 · 340 阅读 · 0 评论 -
3、梯度下降
Day3前情回顾第一天第二天知识补充推导过程每日一句:向着月亮出发,即使不能到达,也能站在群星之中。前情回顾现在是第三天了,对前两天所学的知识进行一个回顾。第一天进行了环境的配置和实现了一个神经网络简单的搭建。用代码写出了一个只有输入层和输出层的神经网络框架。在搭建这个框架的时候,我们知道了什么是神经网络,为什么神经网络的框架是这个样子的。在框架的每一层里都有一些什么东西。神经网络就是模仿大脑神经系统的一个模型,每一个神经元对应着模型的每一层。每一层都有着输入和输出,他们之间用激活函数联系在一起。激原创 2021-06-06 00:00:04 · 257 阅读 · 2 评论 -
2、数据集
知识补充今天学习第二个视频。传送门这一个视频讲的是数据集,也就是MNIST的使用。up主说要认真阅读上面的信息。我英语能力有限,大部分是用机翻看的。下面贴上机翻出来的内容。在本次视频中,up主提起来三种数据集:训练集,测试集,验证集。关于这个三种数据集可以看一下这个文章传送门,里面讲解的十分形象,容易理解。代码解释接下来的内容在代码中注释出来:#pathlib 路径操作函数库from pathlib import Path #从pathlib函数库中,调用Path对象dataset_pat原创 2021-06-04 19:43:29 · 1050 阅读 · 0 评论 -
神经网络:从入门到XX
神经神经网络:从入门到XX前言手写识别Day1Day2前言本人现在大二,和班上同学组了一个小组跟老师进行一个项目–人工智能案例教学。老师给我们四个案例—手写识别,猫狗大战,车牌识别,典型植物识别。,在学习的过程中把学习过程记录下来,写成教程。而这篇博客则就是用来记录学习过程。那现在就开始吧手写识别Day1Day2...原创 2021-06-04 19:42:35 · 195 阅读 · 0 评论