![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
视频资料
为援不可图
一个喜欢将技术应用于实际中的程序猿,喜欢搞算法、前后端交互,也希望自己的小经验能够帮助到大家
展开
-
吴恩达之神经网络和深度学习-1.2
什么是神经网络? 受到大脑工作原理的启发的一种强大的学习算法。 例1 单一的神经网络 给出关于房地产市场上房屋大小的数据,你想要拟合一个函数来预测它们的价格。这是一个线性回归问题,因为价格的高低作为一个函数的输出。 我们知道价格从不可能是负数,所以我们创建了一个ReLU函数,该函数从0开始。 输入参数是房子的大小(x) 输出是房子的价格(y) ReLU函数是由神经元实现的(蓝线...原创 2018-04-11 19:57:15 · 154 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.8计算图的导数计算
在这一节课中,主要讲了函数如何进行反向传播计算,即用到函数求导的链式法则。 首先,我们从右向左进行计算。 dJdv=(3v)′=3dJdv=(3v)′=3\frac{\mathrm{d} J}{\mathrm{d} v}=(3v)'=3这是上节中已有的公式,可以直接拿来用。 dJda=dJdvdvda=(3v)′(a+u)′(此时把u看做常数)=3dJda=dJdvdvda=(3v)′(...原创 2018-04-13 16:53:29 · 285 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.6更多导数例子
计算图 神经网络中包含两种传播方式:正向传播和反向传播。 我们先通过画一个计算图来对正向传播进行解释: 首先定义一个三元变量函数 J(a,b,c)=3(a+b∗c)J(a,b,c)=3(a+b∗c)J(a,b,c)=3(a+b*c),根据运算符优先原则,我们会先计算b∗cb∗cb*c,然后假设将b∗cb∗cb*c的值赋值给uuu,然后计算a+ua+ua+u,并将a+ua+ua+u的值赋值给...原创 2018-04-13 15:56:23 · 194 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.14python中的广播机制
关于广播机制,小编我也是入门级别的,只能把吴学阀的东西来给大家展现一下,有什么不足或者需要补充的地方,希望大家可以踊跃留言,小编必定虚心接受、改进。 ⎡⎣⎢⎢⎢ app原创 2018-04-18 19:56:32 · 926 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.14logistic梯度回归
回顾一下前面学过的内容,我们知道dZ=[dz(1),dz(2),,,dz(m)]dZ=[dz(1),dz(2),,,dz(m)]dZ=[dz^{(1)},dz^{(2)},,,dz^{(m)}],A=[a(1),a(2),,,a(m)]A=[a(1),a(2),,,a(m)]A=[a^{(1)},a^{(2)},,,a^{(m)}],Y=[y(1),a(2),,,y(m)]Y=[y(1),a(2)...原创 2018-04-18 16:15:52 · 242 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.13向量化正向传播
这节课将会看到向量化是如何对正向传播进行实现,并且完全避免for循环的使用,首先,回顾一下两个公式: z(i)=wTx(i)+bz(i)=wTx(i)+bz^{(i)}=w^Tx^{(i)}+b a(i)=σ(z(i))a(i)=σ(z(i))a^{(i)}=\sigma(z^{(i)}) wTwTw^T是一个1*m的矩阵,我们用大写的“X”表示由x(i)x(i)x^{(i)}所组成的m维矩...原创 2018-04-18 15:33:20 · 405 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.5导数
这一节主要是让大家对导数有一个直接的认识,从简单的一元函数进行学习,那么什么是导数,导数在数学中如何进行表示,若是刚刚学过的童靴应该是很清楚的,那对于没有学过的,或者学习了好久又忘了的,我将用我自身的理解,给大家简单的复习一下,并在下一讲给出大家详细的公式供大家参考。 首先,我们要知道什么是导数。 导数的官方定义:设函数 y = f(x) 在点 x0 的某个邻域内有定义当自变量x 在 x0 处...原创 2018-04-12 17:08:21 · 352 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.4梯度下降法
梯度下降 概述:y^=σ(wTx+b),σ(z)=11+e−zy^=σ(wTx+b),σ(z)=11+e−z\hat{y}=\sigma(w^{T}x+b),\sigma(z)=\frac{1}{1+e^{-z}} J(w,b)=1m∑mi=1L(y^(i),y(i))=−1m∑mi=1y(i)logy^(i)+(1−y(i))log(1−y^(i))J(w,b)=1m∑i=1mL(y^(i)...原创 2018-04-12 14:39:21 · 206 阅读 · 0 评论 -
吴恩达之深度学习和神经网络-2.10-2.12向量化
什么是向量化,为什么引入向量化。 以logistic线性回归为例,z=wTx+bz=wTx+bz=w^Tx+b w=[w1、w2,,,wn]w=[w1、w2,,,wn]w=[w_{1}、w_{2},,,w_{n}] x=[x1、x2,,,xn]x=[x1、x2,,,xn]x=[x_{1}、x_{2},,,x_{n}] 非向量化实现: z=0z=0z=0 for i in range(n...原创 2018-04-17 22:09:54 · 395 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.3logistic回归损失函数
Logistic回归:成本函数 为了训练参数w和b,我们需要定义一个成本函数。 概括: y^(i)=σ(wTx(i)+b)y^(i)=σ(wTx(i)+b)\hat{y}^{(i)}=\sigma (w^Tx^{(i)}+b)其中σ(z(i))=11+e−z(i)σ(z(i))=11+e−z(i)\sigma (z^{(i)})=\frac{1}{1+e^{-z^{(i)}}} 给定{(x...原创 2018-04-12 10:49:54 · 502 阅读 · 0 评论 -
吴恩达之神经网络和深度学习2.2logistic回归
Logistic回归 Logistic回归是在输出y均为0或1的监督学习问题中使用的一种学习算法。Logistic回归的目的是使预测和训练数据之间的误差最小化。 例如:猫或不是猫 给定由特征向量x表示的图像,该算法将评估猫在该图像中的概率。 给定 x,y^=p(y=1|x),其中0≤y^≤1 Logistic回归中使用的参数如下: 输入特征向量:x∈Rnx,其中nx是特征数 训练标签...原创 2018-04-12 09:39:06 · 338 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-2.1二分类
二分类 在一个二元分类问题中,结果是一个离散值输出。 例如 -账户被黑(1)或受损(0) -肿瘤恶性(1)或良性(0) 例如:猫或不是猫 目标是训练输入是由特征向量x表示的图像的分类器,并预测对应的标签y是1还是0。在这种情况下,是否是猫的图像(1)或非猫图像(0)。 图像存储在计算机中与图像的红色、绿色和蓝色通道对应的三个独立矩阵中。这三个矩阵具有与图像相同的大小,例如,猫图像...原创 2018-04-11 21:27:47 · 752 阅读 · 0 评论 -
吴恩达之神经网络和深度学习1.4
为什么深度学习开始流行 随着社会的数字化、计算速度的加快和神经网络算法的创新,深度学习正在兴起。 要达到高水平的表现,必须考虑两件事。 1.能够训练足够大的神经网络 2.大量标记数据 神经网络的训练过程是迭代的。 训练一个神经网络需要很长的时间,这会影响你的工作效率。更快的计算有助于迭代和改进新的算法。...原创 2018-04-11 20:49:44 · 162 阅读 · 0 评论 -
吴恩达之神经网络和深度学习-1.3
监督式神经网络 在监督学习中,我们会得到一个数据集,并且已经知道我们的正确输出应该是什么样子的,因为我们认为输入和输出之间是有关系的。 监督学习问题分为回归问题和分类问题。在回归问题中,我们试图在连续输出中预测结果,这意味着我们试图将输入变量映射到某个连续函数。在分类问题中,我们试图预测离散输出的结果。换句话说,我们试图将输入变量映射到离散类别中。 ...原创 2018-04-11 20:07:03 · 156 阅读 · 1 评论 -
吴恩达之神经网络和深度学习-2.9logistic回归中的梯度下降算法
本节课是按照三个函数来进行的,由3个函数进行梯度下降算法的计算。 z=wTx+bz=wTx+bz=w^Tx+b y^=a=σ(z)=11+e−zy^=a=σ(z)=11+e−z\hat{y}=a=\sigma(z)=\frac{1}{1+e^{-z}} L(a,y)=−(ylog(a)+(1−y)log(1−a))L(a,y)=−(ylog(a)+(1−y)log(1−a))L(a,y)=-...原创 2018-04-13 19:06:43 · 537 阅读 · 0 评论