ElitesAI·动手学深度学习PyTorch版笔记(一)

这篇笔记介绍了深度学习的基础概念,包括线性回归的解析解和数值解,Softmax在分类模型中的应用,以及多层感知机的初步理解。此外,还提及了小批量随机梯度下降在优化过程中的作用。后续内容涉及文本预处理、语言模型和循环神经网络,但作者表示这部分不是其主要研究领域。
摘要由CSDN通过智能技术生成
  虽然之前利用Keras基于深度学习的方法做过融合卫星遥感影像和百度POI数据等做过城市建筑功能类型的识别,但是仍然感觉自己的理论知识不扎实、编程动手能力非常薄弱;工作比较忙学习时间仓促但希望通过这次公益学习能系统的掌握深度学习的知识,现将线性回归、Softmax与分类模型、多层感知机、文本预处理、语言模型、循环神经网络方面的学习重点和个人的感悟记录如下:

Task01:线性回归、Softmax与分类模型、多层感知机

线性回归

1.解析解和数值解

解析解: 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。
数值解:通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。
大多数深度学习模型并没有解析解,通过数值解来实现。教程中的线性回归例子用的是数值解。测绘领域同样存在这样的情况,测量平差讲解了许多通过列误差方程,求解法方程及未知数,算是解析解范畴,但GPS基线解算、摄影测量真正解算的时候都是通过最小二乘迭代模型来求解数值解。

优化函数 - 随机梯度下降
在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch),然后求小批量中数据样本的平均损失有关模型参数的导数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值