吴恩达《深度学习专项》第一阶段总结与第二阶段预览

本文总结了吴恩达《深度学习专项》第一阶段的学习内容,包括神经网络结构、训练过程及numpy实现,并对学习情况进行自评。在第二阶段,将探讨深度学习的实践层面,如超参数调整、正则化、优化算法,以及深度学习框架TensorFlow的使用。
摘要由CSDN通过智能技术生成

经过前四周的学习,我们已经学完了《深度学习专项》的第一门课程《神经网络与深度学习》。让我们总结一下这几周学的知识,查缺补漏。

《神经网络与深度学习》知识回顾

概览

在有监督统计机器学习中,我们会得到一个训练集。训练集中的每一条训练样本输入输出组成。我们希望构建一个数学模型,使得该模型在学习了训练集中的规律后,能够建立起输入到输出的映射。

深度学习中,使用的数学模型是深度神经网络

神经网络一般可以由如下的计算图表示:

请添加图片描述

其中,每一个圆形的计算单元(又称神经元)一般表示 g ( W X + b ) g(WX+b) g(WX+b)这一组计算。 W , b W, b W,b是线性运算的参数, g g g是激活函数。

为了使神经网络学习到输入和正确输出的映射,我们要定义一个描述网络输出和正确输出之间差距的损失函数(即每个样本的网络输出与正确输出的误差函数的平均值),并最小化这个损失函数。这样,网络的“学习”就成为了一个优化问题。

为了对这个优化问题求解,通常的方法是梯度下降法,即通过求导,使每一个参数都沿着让损失函数减少最快的方向移动。

神经网络的结构

神经网络由输入层隐藏层输出层组成。计算神经网络的层数 L L L时,我们只考虑隐藏层与输出层。

请添加图片描述

x k ( i ) [ j ] x^{(i)[j]}_k xk(i)[j]表示某向量在第 i i

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值