Neural Networks and Deep Learning 学习笔记(一)

第一章 Using neural nets to recognize handwritten digits

一、Perceptrons

据说现在已经不常用了,但是为了理解 sigmoid neuron,还是先理解一下它吧

这里写图片描述

这里写图片描述

xi 和 output 只能为0或者1

a many-layer network of perceptrons(这里的输出都是一样的)

优化版本

这里写图片描述

可以用perceptrons模拟NAND门

二、Sigmoid neurons

这里写图片描述

似曾相识的一张图,只是这里的 xi 不再只能取0或1,而是可以取0~1之间的任何值;输出也不再是0或1,而是σ(w⋅x+b) ,在0~1之间

这里写图片描述


上面是这个函数的图,可以看到它是下面这个图(perceptrons的)更平滑的版本

这里写图片描述

三、The architecture of neural networks

名词定义自己看图哦

这里写图片描述

神经网络的几种:
feedforward neural networks:目前来看更常用
recurrent neural networks(周期性神经网络):为什么叫周期性呢?因为其中的神经元只活跃一段时间,在它活跃期间也可能激活其他沉睡的神经元,这些神经元在一段时间后也变为活跃状态。

四、A simple network to classify handwritten digits

这是针对该问题设计的网络
图片像素:28*28=784 0~1灰度
n可以尝试不同的取值

这里写图片描述

输出为什么是10个神经元而不是4个呢(2的4次方=16>10也可以表示十个数字呀)
解释:对于10个神经元,第一个神经元判断的事情是输入是不是0,对于输入是不是0,hidden layer能很好地辅助决策(检测数字0的不同部分);对于4个神经元,output layer第一个神经元判断的事情就变成了最重要是哪一bit,hidden layer就不那么容易判断了。

五、Learning with gradient descent

6000训练集,1000测试集

(二次)代价函数、MSE

这里写图片描述

下面的目标就是让代价函数越小越好,梯度下降神器出现,铛铛铛~~~

这里写图片描述

这里写图片描述

为了让代价函数下降,需要ΔC是负数

这里写图片描述

总结起来,就是不断地计算梯度,向相反的方向移动

但是这种方法对于每个输入样例都需要计算梯度,计算量太大,所以引入了随机梯度下降方法来加速学习,即随机选一些样例计算梯度。这些随机选取的样例被称为是mini-batch

这里写图片描述

训练的过程就变成了:每次随机选一个mini-batch训练,下次再随机选另一个mini-batch,直到所有的训练数据都被选了,这叫做一个epoch完成。下一个epoch开始。

六、Implementing our network to classify digits

开始实战啦

注意训练集做了调整,原来60000张训练图片被划分为50000的训练集和10000的验证集

hyper-parameters(需要玄学调的参):the number of epochs of training, the mini-batch size, and the learning rate, η
parameters(需要炼的丹):weights and biases

七、Toward deep learning

deep neural networks:有很多layer的neural networks

这一章结束啦,撒花!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《Neural Networks and Deep Learning》这本书被许多人评价为是关于深度学习的一本非常好的入门书。它以清晰易懂的方式解释了深度学习的核心概念,并且使用大量的图片和代码来帮助读者理解。如果您对深度学习感兴趣,那么这本书是一个不错的选择。 ### 回答2: 《Neural Networks and Deep Learning》是一本非常出色的书籍。它由Michael Nielsen撰写,提供了关于神经网络和深度学习的详细而清晰的介绍。 这本书以易于理解和深入的方式解释了神经网络和深度学习的基本概念和原理。它从基础知识开始,逐步引导读者了解神经元、多层神经网络、反向传播和激活函数等关键概念。通过直观的解释和简单的数学推导,读者可以很好地理解这些复杂的概念。 书中还包含了许多实例和示例,帮助读者将理论应用到实际问题中。例如,它详细介绍了如何使用神经网络解决手写数字识别的问题,并提供了相关的代码实现。这些实例不仅使得理论更加易于理解,也为读者提供了实际操作的经验和技能。 此外,《Neural Networks and Deep Learning》还提供了大量的引用文献和进一步阅读的建议,帮助读者进一步深入学习和探索相关领域的研究。这为读者进一步拓宽知识领域提供了便利。 总体而言,这本书不仅适合对神经网络和深度学习感兴趣的初学者,也适合那些已经有一定了解但希望进一步加深理解的读者。它以简洁明了的方式传递了复杂的概念,提供了大量的实例和引用文献,是一本极具价值的学习资源。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值