李宏毅深度学习打卡task04深度学习初步P13

本文探讨了深度学习的发展历程和关键步骤,包括神经网络、模型评估和选择最优函数。深度学习模型通常包含多个隐藏层,以进行特征转换。随着隐藏层增加,错误率降低,但计算量增大。反向传播是计算损失的重要方法。文章引发思考:隐藏层是否越多越好,并提及深层架构的普遍性定理。
摘要由CSDN通过智能技术生成

本文来源Datawhale分享的深度学习资料

  1. 深度学习发展趋势
  • 1958: Perceptron (linear model)
  • 1969: Perceptron has limitation
  • 1980s: Multi-layer perceptron
    • Do not have significant difference from DNN today
  • 1986: Backpropagation
    • Usually more than 3 hidden layers is not helpful
  • 1989: 1 hidden layer is “good enough”, why deep?
  • 2006: RBM initialization (breakthrough)
  • 2009: GPU
  • 2011: Start to be popular in speech recognition
  • 2012: win ILSVRC image competition
  1. 深度学习三个步骤
    -把冰箱门打开
    -把大象装进冰箱
    -关门
  • Step1:神经网络(Neural network)
  • Step2:模型评估(Goodness of function)
  • Step3:选择最优函数(Pick best function)

Step1:神经网络

神经网络(Neural network)里面的节点,类似我们的神经元。

神经网络也可以有很多不同的连接方式,这样就会产生不同的结构(structure)在这个神经网络里面,我们有很多逻辑回归函数,其中每个逻辑回归都有自己的权重和自己的偏差,这些权重和偏差就是参数。
需要通过手动设计各个神经元的链接方式

  • 为什么叫全链接呢?
    • 因为layer1与layer2之间两两都有连接,所以叫做Fully Connect;
  • 为什么叫前馈呢?
    • 因为现在传递的方向是由后往前传,所以叫做Feedforward。
深度的理解

那什么叫做Deep呢?Deep = Many hidden layer。那到底可以有几层呢?这个就很难说了,以下是老师举出的一些比较深的神经网络的例子

  • 2012 AlexNet:8层
  • 2014 VGG:19层
  • 2014 GoogleNet:22层
  • 2015 Residual Net:152层
  • 101 Taipei:101层
    在这里插入图片描述
    随着层数变多,错误率降低,随之运算量增大,通常都是超过亿万级的计算。对于这样复杂的结构,我们一定不会一个一个的计算,对于亿万级的计算,使用loop循环效率很低。

这里我们就引入矩阵计算(Matrix Operation)能使得我们的运算的速度以及效率高很多:

矩阵计算

如下图所示,输入是 [ 1 − 2 − 1 1 ] \begin{bmatrix}&1&-2\\ &-1&1\end{bmatrix} [11

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值