神经网络与深度学习课程笔记(第三、四周)

接着学习吴恩达老师第三、四周的课程。(图片均来自吴恩达老师课件)

 

第三周

1. 普通的浅层网络

                                                               第0层(a^{[0]})          第1层 (a^{[1]})       第二层(a^{[2]}

                                                               输入层                    隐藏层                   输出层

2. 浅层网络(单样本)

直观上理解,输入层有3个特征。隐藏层的4个节点实际上都在重复的计算sigmoid,因此每个节点可产生一个w(1*3)和b(1*1),隐藏层可产生W[1](4*3),b[1](4*1),由sigmoid激活函数推出a[1](4*1)。这相当于4个隐藏节点各自计算函数得到了4个值。但是W[2]和b[2]和a[2]不是很好理解其意义,我暂且理解为:原始输入特征为X,而在隐藏层设置4个节点,通过sigmoid激活函数将原始的3个特征映射为4个特征,因此在输出层W[2]的维度为1*4,最后再通过sigmoid得出预测值。其实总结来说,也就是隐藏层与输出层都使用sigmoid作为激活函数。

学习完这周视频,再回头看这一流程。隐藏层(输出层)所做的便是接收输入特征(上一层)的线性组合(权重向量w和偏置向量b)进行非线性函数的映射(激活函数)。

当扩展为多样本,又是向量化的过程,注意符号的写法。矩阵中每一列应代表一个样本,而每一行应代表某个指标(特征,节点等)。

3. 激活函数: 令 a = g(z)(代表激活函数)

(1)sigmoid:除非作为二元分类(0,1)的输出层,否则选用tanh替代,因为其效果更好。

                                                                  g‘(z) = a(1-a)

(2)双曲正切函数 tanh 值域(-1,1)

数学上看,即是将sigmoid函数向下平移经过原点,并使其值域拉伸到(-1,1),效果几乎总比sigmoid函数好,因为其有一个类似于中心化的功能(使均值在0,而sigmoid在0.5)

                                                                               g’(z) = 1 – g(z)^2

(3)ReLU max(0,z)不知道用什么的时候,可以尝试,效果不错,注意在0的时候的斜率(自己定义)

(4)Leaky ReLU max(0.01z,z),0.01的值可以自己定义。修正了ReLU在负值时,斜率为0的问题,效果比ReLU好,但是不经常用 。

4. 理解前向传播及后向传播

 在推导后向传播时保证矩阵的维度匹配。

理解后向传播以及前向传播,在于理解传播二字。根据输入特征得到输出,前向传播的是一步步的计算过程。通过输出的反馈,后向传播的是更新的过程。

初始化神经网络的权重 很重要,不要初始化为0,而是随机初始化。若初始化权重(w)都为0 ,会使隐藏层的节点做着相同的函数计算,使得隐藏层的计算没有意义。常常随机初始化权重为较小的值,例如numpy.random.rand()*0.01。其实设置初始化权值跟所用的激活函数有关。由于我们采用Sigmoid(或者tanh),并且使用梯度下降法进行收敛,当初始化权值太大或者太小时,会使其收敛的速度较慢。

第四周

1. 符号太多了,注意符号的标记。

2. 前向传播的过程,最外层的for循环无法舍弃(即在每一层传播的过程)。

3. 深度网络中,清晰的认知到变量的维度很重要(w,b,z…),关键在于捕捉到网络的层数L,每层的节点数L[i],以及输入样本的m和n(a^{[0]})。

4. 为什么要用深度网络表示?总结出了两方面原因:(1)以人脸识别为例,深度网络的每层是一个特征探测器(边缘检测),每个神经元可以理解为再找一个特征,之后再将这些神经元组合起来,便可以得出检测结果。也就是说随着神经网络的前向传播,逐渐由小特征汇聚成大特征(类似于金字塔结构)。(2)另一方面是,同一问题,若利用相对较浅的网络,那么需要的节点个数会指数级增长。

5. 前向与后向传播流程

 

这里有几点关注的地方:

(1)前向传播过程中,对于中间变量的缓存,可提到计算效率。

(2)后向传播的推导的过程,注意矩阵间的运算,(维度,转置)。

(3) 多样本情形时,W和b的更新记得取平均。

6. 超参数:某种程度上控制着参数的预先设定的参数。(不断的尝试)深度学习的应用实则上就是一个经验的尝试(数据驱动的本质以及不同环境的配置等),如何选取好的超参数,只能不断的尝试。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Go语言(也称为Golang)是由Google开发的一种静态强类型、编译型的编程语言。它旨在成为一门简单、高效、安全和并发的编程语言,特别适用于构建高性能的服务器和分布式系统。以下是Go语言的一些主要特点和优势: 简洁性:Go语言的语法简单直观,易于学习和使用。它避免了复杂的语法特性,如继承、重载等,转而采用组合和接口来实现代码的复用和扩展。 高性能:Go语言具有出色的性能,可以媲美C和C++。它使用静态类型系统和编译型语言的优势,能够生成高效的机器码。 并发性:Go语言内置了对并发的支持,通过轻量级的goroutine和channel机制,可以轻松实现并发编程。这使得Go语言在构建高性能的服务器和分布式系统时具有天然的优势。 安全性:Go语言具有强大的类型系统和内存管理机制,能够减少运行时错误和内存泄漏等问题。它还支持编译时检查,可以在编译阶段就发现潜在的问题。 标准库:Go语言的标准库非常丰富,包含了大量的实用功能和工具,如网络编程、文件操作、加密解密等。这使得开发者可以更加专注于业务逻辑的实现,而无需花费太多时间在底层功能的实现上。 跨平台:Go语言支持多种操作系统和平台,包括Windows、Linux、macOS等。它使用统一的构建系统(如Go Modules),可以轻松地跨平台编译和运行代码。 开源和社区支持:Go语言是开源的,具有庞大的社区支持和丰富的资源。开发者可以通过社区获取帮助、分享经验和学习资料。 总之,Go语言是一种简单、高效、安全、并发的编程语言,特别适用于构建高性能的服务器和分布式系统。如果你正在寻找一种易于学习和使用的编程语言,并且需要处理大量的并发请求和数据,那么Go语言可能是一个不错的选择。
Go语言(也称为Golang)是由Google开发的一种静态强类型、编译型的编程语言。它旨在成为一门简单、高效、安全和并发的编程语言,特别适用于构建高性能的服务器和分布式系统。以下是Go语言的一些主要特点和优势: 简洁性:Go语言的语法简单直观,易于学习和使用。它避免了复杂的语法特性,如继承、重载等,转而采用组合和接口来实现代码的复用和扩展。 高性能:Go语言具有出色的性能,可以媲美C和C++。它使用静态类型系统和编译型语言的优势,能够生成高效的机器码。 并发性:Go语言内置了对并发的支持,通过轻量级的goroutine和channel机制,可以轻松实现并发编程。这使得Go语言在构建高性能的服务器和分布式系统时具有天然的优势。 安全性:Go语言具有强大的类型系统和内存管理机制,能够减少运行时错误和内存泄漏等问题。它还支持编译时检查,可以在编译阶段就发现潜在的问题。 标准库:Go语言的标准库非常丰富,包含了大量的实用功能和工具,如网络编程、文件操作、加密解密等。这使得开发者可以更加专注于业务逻辑的实现,而无需花费太多时间在底层功能的实现上。 跨平台:Go语言支持多种操作系统和平台,包括Windows、Linux、macOS等。它使用统一的构建系统(如Go Modules),可以轻松地跨平台编译和运行代码。 开源和社区支持:Go语言是开源的,具有庞大的社区支持和丰富的资源。开发者可以通过社区获取帮助、分享经验和学习资料。 总之,Go语言是一种简单、高效、安全、并发的编程语言,特别适用于构建高性能的服务器和分布式系统。如果你正在寻找一种易于学习和使用的编程语言,并且需要处理大量的并发请求和数据,那么Go语言可能是一个不错的选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值