![](https://img-blog.csdnimg.cn/20190918140012416.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 79
深度学习
西西先生666
这个作者很懒,什么都没留下…
展开
-
pytorch实现:卷积神经网络识别MNIST
pytorch实现:卷积神经网络识别MNIST# Author: Liuxin# Time: 2022/4/21# 导入训练所需包import torchimport torch.nn as nnimport torch.optim as optimfrom torchvision import datasets, transformsimport torch.nn.functional as Fimport matplotlib.pyplot as pltimport pandas a原创 2022-04-22 12:07:26 · 2077 阅读 · 0 评论 -
计算机视觉之pytorch图片数据转换、增广、增强及多GPU训练
计算机视觉之pytorch图片数据转换、增广及多GPU训练一、数据增强1.1 图片数据增强方式二、代码实现2.1 水平方向随机翻转torchvision.transforms.RandomHorizontalFlip()函数2.2 垂直方向随机翻转torchvision.transforms.RandomVerticalFlip()函数2.3 随机剪裁torchvision.transforms.RandomResizedCrop()函数2.4 中心裁剪torchvision.transforms.Cent原创 2022-02-15 17:28:29 · 3462 阅读 · 0 评论 -
模型微调技术
模型微调一、迁移学习中的常见技巧:微调(fine-tuning)1.1 概念1.2 步骤1.3 训练1.4 实现一、迁移学习中的常见技巧:微调(fine-tuning)1.1 概念将在大数据集上训练得到的weights作为特定任务(小数据集)的初始化权重,重新训练该网络(根据需要,修改全连接层输出);至于训练的方式可以是:1.微调所有层;2.固定网络前面几层权重,只微调网络的后面几层,这样做有两个原因:A. 避免因数据量小造成过拟合现象;B.CNN前几层的特征中包含更多的一般特征(比如,边缘信息原创 2022-02-21 17:30:59 · 4188 阅读 · 1 评论 -
深度学习之注意力机制Attention
深度学习之注意力机制Attention一、Encoder-Decoder机制1.1 前言1.2 Encoder-Decoder原理二、Attention机制一、Encoder-Decoder机制1.1 前言Encoder-Decoder机制:编码-解码框架,大部分Attention模型都基于该机制,该机制处理序列-序列的问题,即输入一个序列,生成一个序列问题。比如:1)文本摘要,输入一篇文章(序列数据),生成文章的摘要(序列数据);2)文本翻译,输入一句或一篇英文(序列数据),生成翻译后的中文(原创 2022-02-09 15:03:29 · 797 阅读 · 0 评论 -
自然语言处理之LSTM、GRU
自然语言处理之LSTM一级目录二级目录三级目录一级目录二级目录三级目录原创 2021-08-28 17:02:58 · 493 阅读 · 0 评论 -
自然语言处理之RNN
自然语言处理之RNN一、循环神经网络( Recurrent Neural Network, RNN)1.1 全连接神经网络弊端,引出RNN1.2 循环神经网络RNN1.2 循环神经网络RNN训练方法1.3 循环神经网络RNN的多种类型任务1.3.1 one-to-one1.3.2 one-to-n1.3.3 n-to-n1.3.4 n-to-one1.3. 5 n-to-m1.4 BiRNN:双向RNN1.5 DRNN:深层RNN一、循环神经网络( Recurrent Neural Network, RN原创 2021-08-28 09:39:56 · 844 阅读 · 0 评论 -
深度学习之参数优化算法
深度学习之优化算法1、GD:Gradient Descent, 梯度下降法1.1 原理1.2 梯度下降法的几种形式2、Adam3、AdaGrad4、Momentum5、RMSProp1、GD:Gradient Descent, 梯度下降法1.1 原理梯度下降学习的目标通常是最小化机器学习问题的损失函数,寻找全局最优值。基本的梯度下降算法遵循的思想是,梯度的相反方向指向较低的区域。所以它在梯度的相反方向迭代。对于参数θ\thetaθ,它做如下操作:Δ=−learning_rate∗gra原创 2021-05-21 15:45:16 · 2068 阅读 · 0 评论 -
pytorch实现:对预训练好的卷积网络微调
pytorch实现:对预训练好的卷积网络微调一、导入所需的包二、微调预训练的VGG16网络三、准备新网络需要的数据四、微调网络的训练和预测由于卷积神经网络层数多,训练参数较多,导致从0开始训练很深的卷积网络非常困难,所以我们可以对预训练好的模型参数进行微调,快速实现自己的任务。pytorch提供ImageNet数据集与预训练好的流行的深度学习网络。本文使用VGG16网络,对网络结构和参数进行微调。数据集来自kaggle:https://www.kaggle.com/slothkong/10-monkey原创 2021-05-02 20:59:04 · 1288 阅读 · 1 评论 -
pytorch实现:卷积神经网络识别FashionMNIST
卷积神经网络识别FashionMNIST之pytorch一、导入需要的包二、图像数据准备三、卷积神经网络搭建四、卷积神经网络训练与预测一、导入需要的包对于moduleNotFoundError: No module named ‘pandas’等情况发生时,需要在Anaconda Prompt下进入pytorch(activate pytorch)环境,然后conda install pandas即可。(采用pip安装会报错,但也可以尝试)import pandas as pdimport nump原创 2021-05-01 18:43:11 · 1715 阅读 · 0 评论