![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch深度学习实践
方方方方便面
这个作者很懒,什么都没留下…
展开
-
模型选择、欠拟合和过拟合
下载及安装官方下载要以管理员身份运行,下载的是最新版本的spacypip install -U spacy离线安装spacy-modelsspacy-models下载pip install en_core_web_sm-3.1.0.tar.gz原创 2021-10-22 11:26:30 · 129 阅读 · 0 评论 -
【PyTorch深度学习实践】第10讲 卷积神经网络
下采样Subsampling通道数不变,图像的高度宽度不变,为了减少数据量,降低运算需求。Fearture Extraction:通过卷积运算找到某种特征Classification:经过特征提取变成向量后,再接一个全连接网络去做分类。...原创 2021-07-20 16:13:59 · 436 阅读 · 0 评论 -
【PyTorch深度学习实践】第9讲 多分类问题
处理多分类问题,在神经网络前面的层用Sigmod在输出层用Sofetmax,可以输出分布,满足输出值大于等于零、和等于一。如何变成正值且和为1?交叉熵损失原创 2021-07-19 12:37:55 · 256 阅读 · 0 评论 -
【Pytorch深度学习实践】第8讲 加载数据集
Epoch:所有样本都参与训练Batch-Size:训练时用的样本数量Iteration:迭代 等于Batch-size样本训练一次Dataset是一个抽象类,不能实例化,只能继承DataLoader:可以实例化在WindowS下,和Linux使用的库不同,用spwan代替了fork,会导致如下问题:改写成查看N,知道数据集有多少个import torchimport numpy as npfrom torch.utils.data import Datasetfrom torch原创 2021-07-15 18:41:16 · 467 阅读 · 0 评论 -
【Pytorch深度学习实践】第7讲 处理多维特征的输入
什么是矩阵:空间转换,从N维映射到M维空间的线性变换神经网络:非线性空间变换原创 2021-07-19 13:43:55 · 158 阅读 · 0 评论 -
【PyTorch深度学习实践】第6讲 逻辑回归
损失函数前面为什么加负号?交叉熵是越大越好,损失值习惯上看的是越小越好,因此添加了负号。交叉熵是用来判断实际的输出和期望的输出的接近程度。经常用在神经网络分类问题,也经常作为损失函数。...原创 2021-07-14 13:04:21 · 637 阅读 · 0 评论 -
【PyTorch深度学习实践】第5讲 用Pytorch实现线性回归
视频地址:[https://www.bilibili.com/video/BV1Y7411d7Ys?p=5]实现步骤:1.准备数据集2.设计数据模型,前向传播计算预测值3.构造损失函数(目的为反向传播)和优化器(更新梯度)4.训练周期(前馈、反馈、更新)import torchx_data = torch.Tensor([[1.0], [2.0], [3.0]])y_data = torch.Tensor([[2.0], [4.0], [6.0]])class LinearModel原创 2021-07-13 15:56:32 · 108 阅读 · 0 评论 -
【PyTorch深度学习实践】第3讲 梯度下降
import matplotlib.pyplot as plt# train setx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = 1.0# model 预测值def forward(x): return x*wdef cost(xs, ys): cost = 0 for x, y in zip(xs, ys): y_pred = forward(x) cost +=原创 2021-07-08 09:26:11 · 150 阅读 · 0 评论 -
【PyTorch深度学习实践】第2讲 线性模型
预测值:损失loss:代价函数:import numpy as npimport matplotlib.pyplot as plt# train setx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# model 预测值def forward(x): return x*w# loss functiondef loss(x, y): y_pred = forward(x) return (y_pre原创 2021-07-07 18:48:58 · 87 阅读 · 0 评论