Coursera | Andrew Ng (01-week-3-3.1)—神经网络概览

该系列仅在原课程基础上部分知识点添加个人学习笔记,或相关推导补充等。如有错误,还请批评指教。在学习了 Andrew Ng 课程的基础上,为了更方便的查阅复习,将其整理成文字。因本人一直在学习英语,所以该系列以英文为主,同时也建议读者以英文为主,中文辅助,以便后期进阶时,为学习相关领域的学术论文做铺垫。- ZJ

Coursera 课程 |deeplearning.ai |网易云课堂


转载请注明作者和出处:ZJ 微信公众号-「SelfImprovementLab」

知乎https://zhuanlan.zhihu.com/c_147249273

CSDNhttp://blog.csdn.net/junjun_zhao/article/details/78977256


3.1 Neural Networks Overview (神经网络概览)

(字幕来源:网易云课堂)

这里写图片描述

Welcome back in this week’s videos,you learn to implement a neural network.Before diving into the technical details.I wanted in this video to give you a quick overview ,of what you’ll be seeing in this week’s videos.So if you don’t follow all the details in this video,don’t worry about it,we’ll delve in the technical details in the next few videos,But for now, let’s give a quick overview of how you implement in your network.Last week we had talked about logistic regression,and we saw how this model corresponds to the following computation graph,where you need to put the features X and parameters w and b,that allows you to compute z,which is then used to compute a.And we were using a ,and then you can compute the loss function L.interchangeably with this output Y hat.

欢迎回来,通过本周的视频课程,你会学到如何实现一个神经网络,在我们深入学习技术细节之前,通过本视频我想带你快速地了解一下,本周课程中你会学习到哪些内容,所以 如果本视频的某些内容你不甚理解,不用太担心,之后的视频课程里 还会深入其中的技术细节,但现在我们来快速过一遍,如何实现神经网络,上周我们讨论了 logistic 回归,一起了解了 这个模型,和下面这个流程图的联系,这里面 你需要输入特征 x、参数 w和 b,用那些计算 z,然后用 z 计算出 a,我们用 a 同时表示输出 y^ ,接下你就可以计算损失函数 L

A neural network looks like this,and as I’d already previously alluded,you can form a neural network by stacking together a lot of little sigmoid units,whereas previously this node corresponds to two steps of calculations,The first three compute the z value.Second is it computes this a value,in this neural network this stack of nodes,will correspond to a z like calculation like this,as well as an a like calculation like that,and then that node will correspond to another z, and another a like calculation,so the notation which we should use later will look like this.

神经网络就是这个样子,我之前已经提到过了,你可以把很多 sigmoid 单元堆叠起来构成一个神经网络,而之前 这个节点对应两个计算步骤,首先 计算出 z 值,然后计算 a 值,这个神经网络中这堆节点,对应像 z 这样的计算,然后那个节点 接着是这种类似 a 的计算,然后这个节点,就对应了另一个类似 z a的计算,因此我们稍后会使用下面这些记号。

这里写图片描述

First, with inputs the features X,together with some parameters W and b,and this will allow you to compute z[1] ,so new notation that one should use is that,we’ll use a superscript square bracket 1,to refer to quantities associated with this stack of nodes,called a layer,and then later we’ll use superscript square bracket 2,to refer to quantities associated with that,really that’s called another layer of the neural network,and the superscript square brackets like we have here,are not to be confused with the superscript round brackets,which we used to refer to individual training examples,so whereas x superscript round bracket i,referred to the Ith trained example,superscript square bracket 1 and 2 refers to,these different layers layer 1 and layer 2 in this network,but they’re going on after computing z[1] similar to logistic regression,there will be a computation to compute a1 and that’s just some sigmoid of z[1] .

首先 我们用 x 表示输入特征,还有参数W b ,这样你就可以算出z[1],我们会使用新的符号,上标 方括号 1,表示与这些节点相关的量,所谓的“层”,我们用上标 方括号 2,表示和这个东西相关的量,这是神经网络的另一层,这里使用这样的上标方括号目的是,区分用来表示单个训练样本的圆括号,圆括号是用来表示单个训练样本的 x 上标(i)表示,第 i 个训练样本,上标方括号 1 2,表示不同的 层 这是网络的第一层 这是第二层,然后使用类似logistic回归去计算了 z[1] 之后,需要使用 sigmoid(z[1] ) 计算 a[1]

这里写图片描述

and then you compute z[2] using another linear equation,and then compute a[2] ,and a[2] is the final output of the neural network,and will also be used interchangeably with y hat,so I know there was a lot of details,but the key intuition to take away is that,whereas for logistic regression we had this z followed by a calculation,and this neural network here we just do it multiple times,a z followed by a calculation,and a z followed by a calculation,and then you finally compute the loss at the end,and you remember that for the logistic regression,we had in some backward calculation,in order to compute derivatives they computing da dz and so on,so in the same way in a neural network,we’ll end up doing a backward calculation,that looks like this,and you end up computing d a[2] d z[2] ,that allows you to compute so dW[2] db^[2] and so on ,in this order the right to left backward calculation,that is denoting with the red arrows

接下来你用另外一个线性方程计算 z[2] ,接着计算 a[2] a[2] 就是整个神经网络的最终输出,同时我也用 y^ 表示网络的输出,我知道其中有很多细节,但关键你要学到这种直觉, logistic 回归中得到 z 后 直接计算 a,而这个神经网络中我们要做多次计算,反复计算 z 和 a,反复计算 a 和 z,最后计算损失函数,应该还记得 在 logistic 回归中,会有这种反向计算,用来计算导数 da dz 这些,同样在神经网络中,也有类似的反向计算,像这样,最后会计算 da[2] 还有 dz[2] ,然后让你计算出 dW[2] db[2] 等等,就是这样从右到左反向计算,用红色箭头表示的方向。

这里写图片描述

So that’s quick overview of what a neural network looks like,but we basically take the logistic regression,and repeating it twice,I know there was a lot of new notation lot of new details,don’t worry about to get and follow everything,we’ll go into the details most slowly in the next few videos,so let’s go on to the next video,we’ll stop to talk about the neural network representation

刚才带你大概了解了一下神经网络长什么样,基本上我们把 logistic 回归,重复了两次,这视频讲了很多新符号和细节,如果你没有理解 不用担心,在接下来的视频中 我们会慢慢讲解这些细节,继续看下一个视频吧,我们将会开始讨论 神经网络的表示。


重点总结:

  1. z[1] ,我们会使用新的符号,上标 方括号 1,表示与这些节点相关的量,所谓的“层”
  2. x 上标 (i) 表示,第 i <script type="math/tex" id="MathJax-Element-55">i</script> 个训练样本, 圆括号是用来表示单个训练样本的
  3. 在神经网络中我们要做多次计算,反复计算 z 和 a,反复计算 a 和 z,最后计算损失函数。

PS: 欢迎扫码关注公众号:「SelfImprovementLab」!专注「深度学习」,「机器学习」,「人工智能」。以及 「早起」,「阅读」,「运动」,「英语 」「其他」不定期建群 打卡互助活动。

### 回答1: Coursera-ml-andrewng-notes-master.zip是一个包含Andrew Ng的机器学习课程笔记和代码的压缩包。这门课程是由斯坦福大学提供的计算机科学和人工智能实验室(CSAIL)的教授Andrew Ng教授开设的,旨在通过深入浅出的方式介绍机器学习的基础概念,包括监督学习、无监督学习、逻辑回归、神经网络等等。 这个压缩包中的笔记和代码可以帮助机器学习初学者更好地理解和应用所学的知识。笔记中包含了课程中涉及到的各种公式、算法和概念的详细解释,同时也包括了编程作业的指导和解答。而代码部分包含了课程中使用的MATLAB代码,以及Python代码的实现。 这个压缩包对机器学习爱好者和学生来说是一个非常有用的资源,能够让他们深入了解机器学习的基础,并掌握如何运用这些知识去解决实际问题。此外,这个压缩包还可以作为教师和讲师的教学资源,帮助他们更好地传授机器学习的知识和技能。 ### 回答2: coursera-ml-andrewng-notes-master.zip 是一个 Coursera Machine Learning 课程的笔记和教材的压缩包,由学生或者讲师编写。这个压缩包中包括了 Andrew Ng 教授在 Coursera 上发布的 Machine Learning 课程的全部讲义、练习题和答案等相关学习材料。 Machine Learning 课程是一个介绍机器学习的课程,它包括了许多重要的机器学习算法和理论,例如线性回归、神经网络、决策树、支持向量机等。这个课程的目标是让学生了解机器学习的方法,学习如何使用机器学习来解决实际问题,并最终构建自己的机器学习系统。 这个压缩包中包含的所有学习材料都是免费的,每个人都可以从 Coursera 的网站上免费获取。通过学习这个课程,你将学习到机器学习的基础知识和核心算法,掌握机器学习的实际应用技巧,以及学会如何处理不同种类的数据和问题。 总之,coursera-ml-andrewng-notes-master.zip 是一个非常有用的学习资源,它可以帮助人们更好地学习、理解和掌握机器学习的知识和技能。无论你是机器学习初学者还是资深的机器学习专家,它都将是一个重要的参考工具。 ### 回答3: coursera-ml-andrewng-notes-master.zip是一份具有高价值的文件,其中包含了Andrew NgCoursera上开授的机器学习课程的笔记。这份课程笔记可以帮助学习者更好地理解掌握机器学习技术和方法,提高在机器学习领域的实践能力。通过这份文件,学习者可以学习到机器学习的算法、原理和应用,其中包括线性回归、逻辑回归、神经网络、支持向量机、聚类、降维等多个内容。同时,这份笔记还提供了很多代码实现和模板,学习者可以通过这些实例来理解、运用和进一步深入研究机器学习技术。 总的来说,coursera-ml-andrewng-notes-master.zip对于想要深入学习和掌握机器学习技术和方法的学习者来说是一份不可多得的资料,对于企业中从事机器学习相关工作的从业人员来说也是进行技能提升或者知识更新的重要资料。因此,对于机器学习领域的学习者和从业人员来说,学习并掌握coursera-ml-andrewng-notes-master.zip所提供的知识和技能是非常有价值的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值