吴恩达神经网络基础笔记
唐秦
这个作者很懒,什么都没留下…
展开
-
吴恩达笔记——神经网络基础(一):二分分类
吴恩达笔记——神经网络基础:二分分类神经网络基础引言:1)要构建一个神经网络,有些技巧是要注意的,例如:m个样本的训练集,通常使用for语句来遍历这m个样本,但在神经网络中并不这么使用,具体怎么使用?这就涉及到神经网络的构建技巧了。神经网络基础这一部分,可以学习到神经网络构建过程中的一些技巧。2)神经网络的计算过程通常包括两个部分:正向传播过程和反向传播过程3)以逻辑回归(Logist回...原创 2019-01-17 13:49:33 · 1193 阅读 · 0 评论 -
吴恩达笔记——神经网络基础(二):Logistic回归
吴恩达笔记——神经网络基础:Logistic回归上一节讲到二分类问题:二分类问题的目标是训练出一个分类器,这个分类器可以使用图片特征向量x作为输入,预测输出的结果标签y,y=1?还是y=0?Logistic回归:一种用于监督学习问题中的“学习算法”,它的输出是0或者1,也是一个二分类问题;**Given:**一张图片输入,对应的 输入向量:x;**What:**为了实现识别目标(图片...原创 2019-01-18 11:15:34 · 219 阅读 · 0 评论 -
吴恩达笔记——神经网络基础(四):梯度下降法
吴恩达笔记——神经网络基础(四):梯度下降法上一节讲到损失函数和成本函数损失函数:用于衡量单一样本的算法效果成本函数:用于衡量参数w和b的效果,在全部训练集上的效果1)梯度下降法概念利用训练集在成本函数上使用梯度下降法,获取参数w和b。a)初始化w和b(对于Logist回归,任意w和b均有效),通常用0做初始化b)沿着函数J下降最快的方向迭代(w和b)c)迭代后,J收敛到全局最优...原创 2019-02-14 17:20:27 · 894 阅读 · 1 评论 -
吴恩达笔记——神经网络基础(三):Logistic回归成本函数
吴恩达笔记——神经网络基础:Logistic回归成本函数上一节讲到Logistic回归算法:Logistic回归算法是给定了特定的一个sigmoid函数模型 :y(hat) = sigmoid(wTx+b)。其中w是权重,b是偏置,这两个参数都是未知的。将训练集输入Logistic回归算法模型,通过学习获取y(hat)函数的相关参数 w和b,此时,需要定义一个成本函数,凭借对成本函数的约束,...原创 2019-02-14 15:30:23 · 790 阅读 · 3 评论