《动手学深度学习》PyTorch 版本总结(1)

本文总结了《动手学深度学习》课程中,使用PyTorch实现的线性回归、Softmax分类、多层感知机、文本预处理、语言模型及循环神经网络的基础知识。介绍了小批量随机梯度下降在深度学习中的应用,激活函数如ReLU、Tanh、Sigmoid的功能,以及预处理文本的常见步骤和分词工具spaCy、NLTK。
摘要由CSDN通过智能技术生成

通过伯禹学习平台和Kesci平台,参与了一项14天学习《动手学深度学习》课程,这本书是由李沐等大神编写而成,并提供了配套的视频和源代码。这次活动主要是将里面的Mxnet 框架改成了PyTorch 框架实现了一遍,并由上海交大的老师们再次讲述了一遍。以下内容均是记录学习过程中的一些学习知识点。

Task 01

(1)线性回归

知识点1

在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。

知识点2

在这里插入图片描述

知识点3

在这里插入图片描述
知识点4

在这里插入图片描述

知识点5

在这里插入图片描述

(2) Softmax与分类模型

主要原理
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(3) 多层感知机

激活函数的作用:
在这里插入图片描述

常用的激活函数:

ReLU
Tanh
Sigmoid

(4)文本预处理

文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:

  1. 读入文本
  2. 分词
  3. 建立字典,将每个词映射到一个唯一的索引(index)
  4. 将文本从词的序列转换为索引的序列,方便输入模型

我们可以通过引入更复杂的规则来解决这些问题,但是事实上,有一些现有的工具可以很好地进行分词,
我们在这里简单介绍其中的两个:spaCy

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值