《吴恩达深度学习》学习笔记-2 第二章 从判断猫猫照片开始接触神经网络基础

第二章持续更新ing

关注我的公众号~ 一起学习

欢迎大家扫码关注我的公众号~ 获取更多学习资源与内容
目前学习内容:

  • 前端基础知识点学习-JS红宝书/CSS权威手册(这个就不发了哈哈哈当个兴趣)
  • 跟着《算法图解》扎实学习数据结构与算法
  • 从0.1开始的C++编程小练习
  • 吴恩达深度学习课程笔记
  • 人工智能领域研究&学习
    关注我 一起在代码之路上前行
    在这里插入图片描述

最重要的 是互相督促着一起学习鸭~
在这里插入图片描述

第二章 神经网络基础

使用logistic回归 进行神经网络基础的学习

1.二分分类

logistic回归是一个用于二分分类的算法

举个栗子

64x64像素的 猫猫图片
在这里插入图片描述
在这里插入图片描述
特征向量维度为 64x64x3
在这里插入图片描述
用nx来表示输入的特征向量的维度
在这里插入图片描述

二分分类目的

训练出一个分类器(learn a classifier)

这个分类器以图片的特征向量x为输入 预测输出的结果标签y是1还是0

在上面的例子就是——

判断图片里是不是猫猫
在这里插入图片描述

2.logistic回归(的模型)

什么是logistic回归?

可以被看做是一个非常小的神经网络

这是一个学习算法 用在**“输出的y标签是0或者1的”**监督学习问题当中

例如:
在这里插入图片描述

logistic模型

在这里插入图片描述

给模型一个m样本的训练集 让模型 通过学习 调整参数

logistic回归的输出

Logistic回归中 我们的输出是
在这里插入图片描述

sigmoid函数:
在这里插入图片描述
sigmoid函数图像如下:
在这里插入图片描述
可以注意到我们输出的yhat中有两个未知参数w b
在这里插入图片描述
所以——
在实现logistic回归中 我们要做的是——学习参数w和参数b

3.logistic回归损失函数

为了训练logistic回归模型的参数w以及b 需要定义一个成本函数

接下来进行学习:用logistic回归来训练的成本函数

定义损失函数 来衡量 预测输出值yy的实际值 有多接近

下图:损失函数公式

在这里插入图片描述

举例

因为需要让越小越好
当y取不同的值时 y hat需要尽可能接近不同的值——来达到上述值更小的目的

在这里插入图片描述

3’.logistic回归成本函数

损失函数适用于单个训练样本

成本函数衡量的是全体训练样本上的表现

下图为回归成本函数 Cost Function
在这里插入图片描述

在训练logistic回归模型时 要找到合适的参数w和b 来让成本函数J尽可能得小

4.梯度下降法

学习 如何将logistic回归看做一个非常小的神经网络
我们使用梯度下降法训练或者学习训练集上的参数w和b——寻找w和b 让成本函数最小!
在这里插入图片描述
梯度下降法会朝着全局最小值的方向移动——
在这里插入图片描述

5.微积分与导数

6.更多导数的例子

这两章讲解了一些微积分 方面的知识

7.计算图

Computation Graph

TO BE CONTINUED

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值