深度学习
文章平均质量分 89
深度学习相关内容
RichExplorer
智能辅助驾驶探索者~
展开
-
深度学习--第1篇(续): Ununtu16.04源码编译libtorch(GUDA版本)环境配置
Ubuntu16.04+libtorch编译1.参考博客2.准备工作3.Libtorch编译安装3.1 下载Pytorch源码3.2 下载libtorch库3.3 CMakeLists编写4.低版本兼容问题(权重加载)1.参考博客Pytorch+libtorch编译libtorch源码编译2.准备工作笔者采用Anaconda的虚拟环境下安装Pytorch 1.5.0版本,具体版本如下:torchvision=0.6.0,python=3.6,CUDA=10.1, cudnn=7.6.5(上述的需原创 2020-10-25 15:28:31 · 1119 阅读 · 0 评论 -
深度学习--第15篇: Pytorch保存和加载模型参数
Pytorch保存和加载模型参数参考博客1. 保存模型和参数2. 仅保存参数3. 加载pytorch预训练模型3.1 加载预训练模型和参数3.2 只加载模型不加载预训练参数参考博客参考博客: https://blog.csdn.net/lscelory/article/details/81482586pytorch的模型和参数是分开的,可以分别保存或加载模型和参数。pytorch有两种模...转载 2020-05-05 15:12:58 · 2018 阅读 · 1 评论 -
深度学习--第14篇: Pytorch学习率调整策略
Pytorch学习率下降策略转载 2020-05-05 13:51:52 · 529 阅读 · 0 评论 -
深度学习--第13篇: Pytorch优化器
Pytorch优化器1. 优化器含义2. 优化器Optimizer2.1 optimizer的属性2.2 optimizer的方法2.3 optimizer实例展示1. 优化器含义pytorch的优化器:管理并更新模型中可学习的参数的值,使得模型输出更接近真实标签导数:函数在指定坐标轴上的变化率方向倒数:指定方向上的变化率梯度:一个向量,方向为方向倒数取得最大值的方向2. 优化器...原创 2020-05-04 21:09:58 · 556 阅读 · 0 评论 -
深度学习--第12篇: Pytorch损失函数
Pytorch损失函数1. 损失函数概念2. 损失函数2.1 nn.CrossEntropyLoss2.2 nn.NLLLoss2.3 nn.BCELoss2.4 nn.BCEWithLogitsLoss2.5 其他损失函数1. 损失函数概念损失函数:衡量模型输出与真实标签的差异2. 损失函数2.1 nn.CrossEntropyLoss交叉熵损失函数,.功能:nn.LogSoft...原创 2020-05-04 15:55:35 · 409 阅读 · 0 评论 -
深度学习--第11篇: Pytorch权值初始化
Pytorch权值初始化参考博客背景知识1. 梯度消失和爆炸2. Xavier初始化2.1 Xavier均匀分布初始化2.2 Xavier正态分布初始化3. Kaiming初始化3.1 Kaiming正态分布初始化3.2 Kaiming均匀分布初始化参考博客参考博客: https://blog.csdn.net/weixin_42147780/article/details/103238195...转载 2020-05-04 09:10:48 · 1184 阅读 · 2 评论 -
深度学习--第10篇: Pytorch卷积层,池化层,线性层和激活函数层
Pytorch卷积层,池化层,线性层和激活函数层1. 卷积层 Conv Layer1.1 卷积 1d/2d/3d1.2 nn.Conv2d1.3 转置卷积 nn.ConvTranspose2. 池化层 Pooling Layer2.1 最大池化 nn.MaxPool2d2.2 平均值池化 nn.AvgPool2d2.3 最大池化上采样 nn.MaxUnpool2d3. 线性层 Linear Lay...原创 2020-05-03 15:11:30 · 5465 阅读 · 0 评论 -
深度学习--第9篇: Pytorch模型创建与nn.Module
Pytorch模型创建与nn.Module1. 模型创建步骤1.1 构建模型的两要素2. nn.Module属性2.1 torch.nn2.2 nn.Module3. 模型容器Containers3.1 nn.Sequential3.2 nn.ModuleList3.3 nn.ModuleDict3.4 容器总结4. AlexNet创建1. 模型创建步骤1.1 构建模型的两要素 - 构建子...原创 2020-05-02 22:56:58 · 968 阅读 · 1 评论 -
深度学习--第8篇: Pytorch数据读取DataLoader与Dataset
Pytorch数据读取DataLoader与Dataset包含一个实例程序, 人民币二分类程序, 主要是学习数据集的划分和读取原创 2020-04-30 11:41:04 · 2710 阅读 · 0 评论 -
深度学习--第7篇: Pytorch自动求导与逻辑回归
Pytorch自动求导与逻辑回归1. 自动求导 torch.autograd1.1 torch.autograd.backward1.2 torch.aurograd.grad2. 逻辑回归(线性二分类模型)3. 机器学习模型训练步骤1. 自动求导 torch.autograd1.1 torch.autograd.backward# torch.autograd.backward() 功...原创 2020-04-27 17:41:20 · 266 阅读 · 0 评论 -
深度学习--第6篇: Pytorch计算图与动态图机制
Pytorch计算图与动态图机制1. 计算图1.2 计算图实例2. 动态图1. 计算图通过计算图的示意,我们很容易的可以理解模型参数训练的过程,这个过程很像模型的前向传播和方向传播。节点表示数据, 边表示运算.叶子节点很重要,非叶子节点的梯度在计算后会被释放,以优化内存开销,当然可以使用retain_grad()保存.1.2 计算图实例import torchx = to...原创 2020-04-27 14:33:26 · 392 阅读 · 0 评论 -
深度学习--第5篇: Pytorch张量操作与线性回归
Pytorch张量操作与线性回归1. 张量操作1.1 张量拼接1.2 张量切分1.3 张量索引1.4 张量变换2. 张量运算3. 线性回归1. 张量操作dim : 表示张量的维度, 例如2维张量,dim=0或者1, 当dim=0表示对行方向处理; dim=1表示对列方向处理;对于多维张量,dim从小到大取值表示具体某一维度.实例: a = torch.ones([1,3])dim...原创 2020-04-26 21:03:06 · 260 阅读 · 0 评论 -
深度学习--第4篇: Pytorch张量介绍与创建
Pytorch张量介绍与创建1. 张量介绍2. 张量创建2.1 张量数据类型2.2 直接创建2.3 依据数值创建(形状)2.3.1 torch.zeros()2.3.2 其他的张量创建函数1. 张量介绍张量是一个包含多个同类数据类型的多维数组, 是标量,向量和矩阵的高维拓展.Tensor与VariableVariable是torch.autograd中的数据类型,主要用于封装Tensor,...原创 2020-04-26 16:06:03 · 425 阅读 · 0 评论 -
深度学习--第3篇: Numpy
Numpy库常用操作1. Numpy常用属性2. 创建矩阵2.1 array创建矩阵2.1 获取矩阵属性2.2 创建矩阵关键字2.3 创建随机矩阵2.4 改变矩阵形状3. 矩阵的运算3.1 常规运算3.2 矩阵的乘法(点乘)3.3 矩阵的转置3.4 矩阵的逆3.5 常用矩阵函数4. 获取矩阵信息4.1 获取最值4.2 获取平均值4.3 获取方差4.4 获取标准差4.5 矩阵求和4.6 矩阵累积求和...原创 2020-04-25 14:36:03 · 284 阅读 · 0 评论 -
深度学习--第2篇: Anaconda+Pytorch(CPU版本)环境配置
Anaconda+Pytorch环境配置--CPU版本1. Anaconda下载安装2. 安装Pytorch2.1 创建虚拟环境2.2 激活虚拟环境2.3 安装CPU版本2.4 测试安装1. Anaconda下载安装参考上一篇博客: 博客链接2. 安装Pytorch2.1 创建虚拟环境conda create -n pytorch python=3.62.2 激活虚拟环境# 激活...原创 2020-04-21 13:07:38 · 681 阅读 · 1 评论 -
深度学习--第1篇: Anaconda+Tensorflow(CPU版本)环境配置
Anaconda+Tensorflow环境配置--CPU版本1. Anaconda下载安装1.1 清华镜像源下载1.2 Anaconda安装1.3 Anaconda环境变量2. 安装Tensorflow2.1 创建虚拟环境2.2 激活虚拟环境2.3 安装CPU版本1. Anaconda下载安装1.1 清华镜像源下载Anaconda 是一个用于科学计算的 Python 发行版,支持 Linux...原创 2020-04-19 20:53:05 · 880 阅读 · 2 评论