【TL第一期】李宏毅ML-第四节 深度学习概述

历史

感知器、感知机

反向传播

RBM Initialization(受限玻尔兹曼机)(找学习的初始值)

2006 - GPU:使用GPU可以节省很多计算时间

深度学习概述

深度学习区别于机器学习:在网络模型方面,使用的是神经网络(neural network)

神经网络的连接方式:全连接前馈神经网络(fully connect feedforward network)

  • 深度学习的参数:每一层的weight、bias(权重和偏差)

  • 每一层每次计算之后,都会使用激活函数(sigmoid函数或其他函数)将其转化为0-1区间的一个数值。

    image-20211121162417840

神经网络的本质:通过隐藏层进行特征转换。在最后一个隐藏层输出的就是一组新的特征(相当于黑箱操作),而对于输出层,其实是把前面的隐藏层的输出当做输入(经过特征提取得到的一组最好的特征),然后通过一个多分类器(可以是softmax函数)得到最后的输出y。

  • softmax函数:类似于二分类问题,将多分类问题中的各个输出节点的输出范围映射到[0,1],并且约束每个输出节点的输出值的和为1.

输入层、隐藏层、输出层

深度学习 = 隐藏层 * n

模型评估
1.损失函数

在深度学习中,不单单要计算某一个数据的损失,而是要计算整体所有训练数据的损失。将所有的训练数据的损失加起来,得到总体损失L

2.选择最优函数

方法:梯度下降法

具体流程:权重和偏差的集合是参数的集合。随机找一个初始值,计算一下每个参数对应的偏微分,得到的一个偏微分的集合∇L就是梯度。通过不断更新梯度得到新的参数,就能得到一组最好的参数使得损失函数L的值最小。

3.反向传播 backpropagation (BP)

计算损失的方法,较优。

已有的框架:TensorFlow,theano,Pytorch…

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值