![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 62
Mr. Wanderer
一只在通信和计算机圈子里游荡,还未踏入社会的小小白。
联系我:L_Lihao@163.com
展开
-
pytorch——实现自编码器和变分自编码器
文章目录数据降维主成分分析(PCA)自编码器(AE)变分自编码器(VAE)pytorch实现AE实现自编码器网络结构实现AE对MNIST数据集的处理VAE实现变分自编码器网络结构实现VAE对MNIST数据集的处理本文只设计简单的介绍和pytorch实现,数学原理部分请移步知乎“不刷知乎”大佬的文章:半小时理解变分自编码器本文部分观点引自上述知乎文章。数据降维降维是减少描述数据的特征数量的过程。可以通过选择(仅保留一些现有特征)或通过提取(基于旧特征组合来生成数量更少的新特征)来进行降维。降维在许多需原创 2021-08-18 23:05:33 · 4196 阅读 · 1 评论 -
pytorch——迁移学习实战宝可梦精灵分类
文章目录数据集数据集处理迁移学习网络原理代码实现数据集使用宝可梦精灵的图片数据集。数据集地址:链接:https://pan.baidu.com/s/1zDERMsV1AvwfZudhuae6Ew提取码:rs4h数据集中的每一类别的图片放在一个文件夹中数据集共包含5个类别的图片,我们取每个文件夹(类别):前60%做训练集60%~80%做验证集80%~100%做测试集数据集处理'''load图片数据集'''import torchimport os, globimpo原创 2021-08-11 21:51:42 · 1157 阅读 · 2 评论 -
Colab白嫖指南——以训练YOLO-v5为例
文章目录前言前期准备上传数据集到google-drive创建google colaboratoryColab实现模型训练开启GPU加速Colab连接google-drivegit clone yolo5代码,并适配我们的任务运行训练文件前言本文是在看了《学生党 白嫖之GPU Google colab 训练深度学习模型》 一文之后,按照作者所述内容复现的Colab训练YOLO-v5的模型实验。本文将《学生党 白嫖之GPU Google colab 训练深度学习模型》一文中的所有命令由图片转为了文本,以方便原创 2021-08-08 22:58:00 · 2896 阅读 · 7 评论 -
pytorch——LSTM实现情感分类问题
#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2021/8/1 0:23# @Author : Liu Lihao# @File : LSTM.py# -*- coding: utf-8 -*-import torchfrom torch import nn, optimfrom torchtext.legacy import data, datasetsimport numpy as npprint.原创 2021-08-08 17:14:23 · 833 阅读 · 0 评论 -
pytorch——LSTM原理与实现
文章目录RNN训练难题梯度爆炸梯度弥散LSTM遗忘门RNN训练难题RNN的梯度推导公式:累乘会导致的梯度爆炸或梯度弥散。梯度爆炸现象:比如loss从0.25、0.24突然变的很大,比如1.7、2.3。解决方案:对梯度做clipping(保持梯度的方向,将梯度的模变小)。将gradient的模clipping到0-10的范围内,之后再做optimizer.step()效果就会好很多。梯度弥散反向传播时越靠前的神经层更新越小,前面的神经层的梯度会接近于0,得到的更新会非常小。解决梯度原创 2021-08-08 15:36:16 · 4249 阅读 · 0 评论 -
Pytorch——循环神经网络预测正弦函数
文章目录循环神经网络Pytorch实现RNN单元的两种方式nn.RNN()循环神经网络RNN单元会自我更新之后再输出,其前向传播函数如下:Pytorch实现RNN单元的两种方式nn.RNN()初始化:使用:x给的是x不是x(t),就是把x一次全部喂进去X.shape:[seq_len, batch_size, input_size]input_size就是word_vech0可以给也可以不给,不给的话就默认给0ht:最后一个时刻的所有层cnn的状态h.shape:[mun原创 2021-08-07 22:42:02 · 1039 阅读 · 0 评论 -
pytorch实现ResNet-18
文章目录ResNet-18残差学习单元ResNet-18 结构Pytorch构建ResNet-18使用CIFAR10数据集测试ResNet-18CIFAR10数据集介绍使用CIFAR10数据集测试ResNet-18ResNet-18残差学习单元网络层数越多,并不意味着效果越好。当网络深度更深的时候,每一层的误差积累,最终会导致梯度弥散。最后几层能很好的更新,但是前面几层会一直得不到更新。ResNet设置一个机制,增加短路连接。使30层的网络最差最差也可以退换成22层。短路连接:如果ch_in和c原创 2021-07-31 18:20:49 · 3123 阅读 · 0 评论 -
pytorch实现Lenet5
文章目录Lenet5结构实现Lenet结构使用CIFAR10数据集测试Lenet5CIFAR10数据集介绍实现Lenet对CIFAR10数据集的分类Lenet5结构Lenet5是最简单版本的卷积神经网络。卷积层Pooling卷积层Pooling全连接层实现Lenet结构'''最简单版本的卷积神经网络'''import torchfrom torch import nn, optimfrom torch.nn import functional as Fclass Len原创 2021-07-31 15:43:50 · 486 阅读 · 0 评论 -
python:一个超简单的DQN模型
文章目录模型描述模型代码模型描述MDP模型:只考虑状态、动作、回报不考虑转移函数和衰减因子模型代码#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2021/5/17 14:56# @Author : Liu Lihao# @File : DQN.pyimport torchimport torch.nn as nnimport torch.nn.functional as Fimport random原创 2021-07-13 21:22:53 · 1729 阅读 · 1 评论 -
pytorch——通用的低耦合度的DQN模型
文章目录使用须知模型代码使用须知使用时需要:向模型提供运行环境(env),env需要包括以下方法:reset() 重置环境step() 根据动作更新环境得到反馈render() 展示环境,可以为空方法传参:state_dim 表示状态的维度action_num 表示动作空间中包含动作的数量调参模型代码测试部分我们使用的是gym中平衡车环境:#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time : 2021/5/17原创 2021-06-10 22:36:30 · 279 阅读 · 1 评论 -
pytorch——两个全连接神经网络的通用模型
文章目录用于分类的全连接神经网络用于拟合的全连接神经网络代码中都加了详细的注释,因此文章中不再赘述。用于分类的全连接神经网络loss函数采用Cross Entropy Loss优化器采用随机梯度下降优化器(SGD)激活函数:ReLU# -*- coding: utf-8 -*- # @Time : 2021/5/11 20:04 # @Author : Liu Lihao# @File : ClassificationANN.pyimport torchimport torch原创 2021-06-09 15:30:02 · 1586 阅读 · 0 评论 -
pytorch中的梯度、激活函数和loss
文章目录梯度激活函数torch.sigmoid()torch.tanh()torch.relu()nn.LeakyReLU()softmaxloss函数均方差 (Mean Squared Error)梯度梯度包括大小和方向,是一个向量。寻找最小值:learning rate设置为0.001激活函数torch.sigmoid()torch.tanh()torch.relu()nn.LeakyReLU()ReLU在小于零的情况下,也有可能出现梯度弥散,这时候使用Leaky ReL原创 2021-06-08 22:39:34 · 415 阅读 · 0 评论 -
Pytorch创建Tenser
文章目录从numpy导入从list导入生成未初始化的数据默认Tesner类型生成一定规则的tensor随机初始化正态分布full递增或者递减形成数列等分ones/zeros/eye乱序从numpy导入torch.from_numpy()a = np.array([1,3.3])print(torch.from_numpy(a))'''tensor([1.0000, 3.3000], dtype=torch.float64)'''b=np.ones([2,3])print(torch.fro原创 2021-06-03 20:24:23 · 244 阅读 · 0 评论