莫烦Python学习笔记[Pytorch]

2.1 Numpy Torch 对比

numpy和tensor之间转换:
在这里插入图片描述
输出结果:
在这里插入图片描述
Numpy和torch的一些函数的对比:
绝对值函数
在这里插入图片描述
sin函数
在这里插入图片描述
平均值函数:
在这里插入图片描述
矩阵乘法:
在这里插入图片描述

2.2 Variable 变量

from torch.autograd import Variable
反向传播tensor不变 Variable可变
在这里插入图片描述
在这里插入图片描述

插曲 什么是激励函数

在这里插入图片描述

2.3 Activation 激励函数

在这里插入图片描述
import torch.nn.functional as F
在这里插入图片描述
在这里插入图片描述

3.1 Regression 回归

torch.unsqueeze()是让一维度变二维度 torch中只处理≥二维的数据
y=x.pow(2)是二次方 再加一些噪声
plt.scatter(是打印散点图)都需要用Numpy形式
在这里插入图片描述
开始定义网络啦:
需要继承torch.nn.Module
重写__init__()和forward()
有一些维度信息:
在这里插入图片描述
真正搭建的过程在forward里:
在这里插入图片描述
创建和打印网络结构:
在这里插入图片描述
设置优化器和损失:
在这里插入图片描述
还能看神经网络是怎么学习的动态图~
这里略过~有需要看视频

3.2 Classification 分类

可以看视频

3.3 快速搭建法

在这里插入图片描述

3.4 保存提取神经网络

保存:
在这里插入图片描述
提取:
在这里插入图片描述

3.5 批处理数据训练 DataLoader

import torch.utils.data as Data
把第九行深绿色删去
在这里插入图片描述

插曲 快速梯度下降使用小批量梯度下降(随机梯度下降)

在这里插入图片描述
其他加速下降的途径:
在这里插入图片描述

3.6 Optimizer 优化器

插曲:什么是卷积神经网络

在这里插入图片描述

4.1 CNN卷积神经网络

在这里插入图片描述
下载并导入数据集:
在这里插入图片描述
为了呈现出训练集的样子:
在这里插入图片描述
加载进来数据:
在这里插入图片描述
CNN网络搭建:
第一层
在这里插入图片描述
在这里插入图片描述
数据维度变化见注释:
在这里插入图片描述
前向传播(考虑到batch):
在这里插入图片描述
运行训练:
在这里插入图片描述
在这里插入图片描述
训练效果:
在这里插入图片描述

4.2 RNN 循环神经网络 分类

超参数:
在这里插入图片描述
准备数据:
在这里插入图片描述
定义RNN 其中的__init__方法
在这里插入图片描述
forward方法:
在这里插入图片描述
训练:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.3 RNN 循环神经网络 回归

暂时略过

插曲 自编码 Autoencoder

在这里插入图片描述

4.4 Autoencoder自编码

有encoder和decoder
先略过

插曲 DQN 强化学习

4.5 DQN 强化学习

插曲 GAN生成对抗网络

4.6 GAN 生成对抗网络

5.1 为什么Pytorch是动态Dynamic

5.2 GPU加速

插曲:什么是过拟合

5.3 过拟合 Dropout

插曲 什么是Batch Normalization 批标准化

5.4 Batch Normalization 批标准化

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值