李宏毅——一天搞懂深度学习PPT学习笔记

该博客是李宏毅教授的深度学习课程笔记,涵盖深度学习的三个步骤:神经网络、函数优化和网络结构,讲解了全连接前馈网络、损失函数、梯度下降及其困难,强调了深度学习的优势,并介绍了Keras等工具。此外,还探讨了训练深度神经网络的技巧,如损失函数选择、小批量、激活函数、自适应学习率、动量法、早停法、权重衰减和dropout。最后,提到了卷积神经网络和循环神经网络的应用,以及监督学习、强化学习和无监督学习的未来趋势。
摘要由CSDN通过智能技术生成

李宏毅一天搞懂机器学习PPT,SildeShare链接:https://www.slideshare.net/tw_dsconf/ss-62245351?qid=108adce3-2c3d-4758-a830-95d0a57e46bc&v=&b=&from_search=3
也可以在csdn下载中下载(资源附学习笔记全文):https://download.csdn.net/download/wozaipermanent/11998637

1 Introduction of Deep Learning

1.1 Three Steps for Deep Learning

  • Step1: define a set of function (Neural Network)
  • Step2: goodness of function
  • Step3: pick the best function

1.2 Step1: Neural Network

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

1.2.1 Fully Connect Feedforward Network

在这里插入图片描述

1.2.2 Output Layer(Option)

在这里插入图片描述

  • Softmax(归一化指数函数):它能将一个含任意实数的k维向量Z“压缩”到另一个k维向量 σ ( Z ) \sigma(Z) σ(Z)中,使得每一个元素的范围都在(0, 1)之间,并且所有元素的和为1。

1.2.3 Example Application

  • Handwriting Digit Recognition
    在这里插入图片描述

1.3 Step2: Goodness of Function

1.3.1 Learning Target

在这里插入图片描述

1.3.2 Loss

在这里插入图片描述

  • Total Loss:

在这里插入图片描述

1.4 Step3: Pick the Best Function

1.4.1 Gradient Descent

在这里插入图片描述

  • RBM(Restricted Boltzmann Machine): 受限玻尔兹曼机,这部分可以参考链接:https://zhuanlan.zhihu.com/p/22794772

  • Then Compute ∂ L / ∂ w \partial L / \partial w L/w , if Negative then Increase w; elif Positive then decrease w

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值