《动手学深度学习》(PyTorch版)理解笔记
本专栏用于记录博主学习深度学习过程中对方法或者实现代码的一些理解和由此展开的一些思考
Hurri_cane
自动驾驶算法工程师
展开
-
《动手学深度学习》(PyTorch版)理解笔记 - 6 【初始化权重】
目录运行环境书中片段理解运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段理解在构建网络是,我们需要进行权重的初始化初始化过程中我们最常见的便是如下代码:def get_net(feature_num): net = nn.Linear(feature_num, 1) for param in net.parameters(): # print(param) nn.init.normal_(param,原创 2020-08-19 20:14:32 · 303 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)理解笔记 - 5 【3.12 权重衰减】
目录运行环境书中片段理解运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段理解由于本节主要是公式推导,采用图片形式呈现思路原创 2020-08-19 20:07:02 · 145 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)理解笔记 - 4 【3.6.6 计算分类准确率】
目录运行环境书中片段理解进一步思考附言运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段如果不理解上图各个变量的意思,可以参看下面这幅图理解accuracy函数中的return (y_hat.argmax(dim=1) == y).float().mean().item()功能如下:比较y_hat(预测概率)中最大值索引与真实情况y异同将得到的异同情况进行提取为数字形式,相同则计为1,不同计为0对异同情况取平均值,得到预估准确率,值得原创 2020-08-19 20:04:19 · 690 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)理解笔记 - 3 【3.4.5 交叉熵损失函数】
目录运行环境书中片段理解运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段理解交叉熵损失函数可以用作为分类的损失函数,即适合衡量两个概率分布的差异,相较于线性回归中的平方损失函数要优良不少,因为分类过程中并不需要如此严格的控制函数...原创 2020-08-19 19:53:56 · 202 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)理解笔记 - 2 【3.4.2 softmax回归模型】
目录运行环境书中片段理解运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段理解此处提到的:权重包含12个标量(带下标的w)、偏差包含3个标量(带下标的b)的原因是:一开始确定了三种输出的动物类别(猫狗鸡),每个类别的具体体现是一个2*2的图片由1可知基本的像素点有12个分别是猫的四个像素、狗的四个像素、鸡的四个像素那为什么每个输入只有四个,但是输出有三个呢?首先,我们先抛开构件softmax模型,直接假设我们拿到一个可以出色的softma原创 2020-08-19 19:51:30 · 290 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版)理解笔记 - 1 【3.1.2线性回归的表示方法】
目录运行环境书中片段理解提出问题运行环境使用环境:python3.8平台:Windows10IDE:PyCharm书中片段理解此处定义了模型参数θ的迭代方法,其实我们对于此书中的3.1节线性回归求解的目的就是得到最优的θ值来拟合我们的数据集,求解θ的方法便是进行θ的迭代Θ即(w1,w2,b)的初始值在本节中是:将权重(即w1,w2)初始化成均值为0、标准差为0.01的正态随机数,偏差(即b)则初始化成0。然后根据随机抽取训练集中的10个样本来进行优化Θ上式优化的含义为:用上一次的Θ原创 2020-08-19 19:40:07 · 214 阅读 · 0 评论 -
《动手学深度学习》(PyTorch版) - 专栏说明
目录博主近期在学习深度学习,在网上找了一本很优秀的项目《动手学深度学习》(PyTorch版)其链接如下:传送门本书将《动手学深度学习》 原书中MXNet代码实现改为PyTorch实现。原书作者:阿斯顿·张、李沐、扎卡里 C. 立顿、亚历山大 J. 斯莫拉以及其他社区贡献者GitHub地址:https://github.com/d2l-ai/d2l-zh面向人群本项目面向对深度学习感兴趣,尤其是想使用PyTorch进行深度学习的童鞋。本项目并不要求你有任何深度学习或者机器学习的背景知识,你只需了原创 2020-08-16 20:06:17 · 408 阅读 · 0 评论