《动手学深度学习》Pytorch版学习打卡 (一)

背景:

有python和机器学习的基础,深度学习方面基础基本为0,了解到开源组织Datawhale和伯禹学习平台以及K-Lab合作推出了《动手学深度学习》这本书的Pytorch版代码讲解,就报名参加了。
在这里插入图片描述

学习资料:

《动手学深度学习》Pytoch版Github开源项目
Datawhale+伯禹学习平台网课

学习前的基础了解:

需要了解神经网络的一些基本概念、反向传播算法等
深度学习之反向传播算法

学习方法:

1.先看平台准备的Jupyter文件,搜集一些相关资料,了解知识点理论基础。
2.看视频里的代码讲解,将视频里听到的重点注释在下载的代码旁
3.搜集资料,看《动手学》原书,查漏补缺

第一次打卡内容

1. 用Pytorch实现一个线性回归

关键词:线性回归、矢量计算、单层神经网络、Pytoch的简洁实现

这里默认已经有了一定的线性回归算法的理论基础,主要就是线性回归的模型定义、损失函数、优化算法,没有的可以看书中关于线性回归的描述:线性回归的基本要素
用神经网络来表示一个线性回归主要表示为以下结构:
在这里插入图片描述
按照惯例神经网络的层数是指涉及计算的层的数量,这里只有输出层涉及到计算,因此这是一个单层的神经网络,同时,输出层的的神经元又和输入层的各个单元完全连接,因此输出层又是一个全连接层

矢量计算的优势:
我们可以通过如下代码了解矢量运算相比标量计算的速度优势

timer = Timer()
c = torch.zeros(n)
for i in range(n):
    c[i] = a[i] + b[i]
'%.5f sec' % timer.stop()

‘0.01188 sec’

timer.start()
d = a + b
'%.5f sec' % timer.stop()

‘0.00024 sec’
很明显后者的运算速度快很多,因此在计算中应尽量使用矢量计算方式

从0实现线性回归

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值