吴恩达深度学习
文章平均质量分 59
hhhhhliu
终身学习
展开
-
吴恩达深度学习--深度神经网络
介绍logistic回归是浅层神经网络,浅层神经网络和深层神经网络是神经网络的层数决定的。深度神经网络例子及符号约定4层神经网络示意图符号约定上图表示的是一个4层神经网络,3层隐层1层输出层,这4层的单元的数目分别是:4、4、3、1。我们有如下符号约定:ll为层数,这里l=5。输入层的维度:n[0]=3n^{[0]}=3隐藏层的维度:n[1]=5n^{[1]}=5、n[2]=5n^{[2原创 2018-01-30 19:07:53 · 316 阅读 · 0 评论 -
吴恩达深度学习--卷积神经网络基础
原创 2018-10-29 21:02:50 · 681 阅读 · 0 评论 -
吴恩达深度学习--反向传播
反向传播图示对于一个单隐层的神经网络,它的正向传播与反传播如下。 反向传播的向量化表示dz[2]=A[2]−Ydz^{[2]}=A^{[2]}-Y dw[2]=1mdz[2]A[1]Tdw^{[2]}=\frac{1}{m}dz^{[2]}A^{[1]T}db[2]=1mnp.sum(dz[2],axis=1,keepdims=true)db^{[2]}=\frac{1}{m}np.sum(原创 2018-01-27 20:31:31 · 1852 阅读 · 0 评论 -
吴恩达深度学习--激活函数
四种常用的激活函数(1)sigmoid函数函数的表达式为:a=11+e−z" role="presentation" style="position: relative;">a=11+e−za=11+e−za=\frac{1}{1+e^{-z}}导函数:g′(z)=a(1−a)" role="presentation" style="p原创 2018-01-25 23:00:45 · 682 阅读 · 0 评论 -
吴恩达深度学习--浅层神经网络
什么是神经网络神经网络的作用是给定一组输(x1,x1...xn)(x_1,x_1...x_n)经过一系列的计算得出一个输出a,然后将输出a和实值y作比较,不断地调整参数,最终使得输出a的值达到合适的位置。 如图二所示,它的计算流程是: -反向传播是将loss反向传播回去,本质是链式法则求导,然后更新权重参数。神经网络的层数如图一的神经网络,它包括输入层,隐藏层和输出层,分别是第0层、第1原创 2018-01-25 20:09:48 · 609 阅读 · 1 评论 -
吴恩达深度学习--广播技巧
(1)(2)(3) a=np.random.randn(5) //生成5个随机变量放在a数组中 上式中随机生成的a是一个数组,而不是一个行向量或者列向量。这种方式生成的随机变量是危险的,我们在计算中如果生成这种数据形式,可能会给后面的计算带来难以调试的bug。 如上图所示,生成的a在形式上像是一个行向量,但是它的转置并不是一个列向原创 2018-01-24 19:35:10 · 515 阅读 · 0 评论 -
吴恩达深度学习--向量化(vectorization)
在深度学习领域,用for循环易造成效率低下,加速运算用vectorization向量化可以摆脱for循环。下面我们通过一个图来比较一下向量化和非向量化的区别 上图是m个样本的逻辑回归的向量化和非向量化,单单从代码量和简洁程度上来看,向量化做的要比非向量化好得多,而且在执行效率上向量化要更高。这一切都要归功于python中的numpy。numPy系统是Python的一种开源的数值计算扩展,这种工具原创 2018-01-24 22:04:13 · 4924 阅读 · 0 评论 -
吴恩达深度学习--logistic回归模型
logistic回归模型定义 考虑具有n个独立变量的向量x=(x1,x2,...,xn)x=(x_1,x_2,...,x_n),设条件概率p(a=1|x)=pp(a=1|x)=p为根据测量为相对于某件事发生的概率,则logistic回归模型为:p(a=1|x)=π(x)=11+e−zp(a=1|x)=π(x)=\frac{1}{1+e^{-z}}。原创 2018-01-24 21:08:07 · 822 阅读 · 0 评论 -
吴恩达深度学习--广播基础
广播是一种手段,可以让python代码执行的更快。下面用一个例子来详细介绍一下广播。图一是4种水果中各种成分的含量。 我们求各种成分在各个水果中所占的比重,通常的计算方法是用该成分的含量除以水果的总含量,如果数据量很多,那么这种计算方法的效率是很低的,而用广播的方法会大大提高效率。方法如下: (1)首先输入图一中的矩阵 A = np.原创 2018-01-24 14:53:44 · 850 阅读 · 0 评论 -
吴恩达深度学习--经典的卷积网络
LeNet - 5AlexNetVGG - 16原创 2018-10-30 11:25:33 · 374 阅读 · 0 评论