深度学习入门记录
文章平均质量分 92
记录入门深度学习的学习
云溪龙
记录小白的自己逐渐了解IT世界
展开
-
深度学习记录前篇————基于pytorch深度学习环境配置
深度学习记录————基于pytorch深度学习环境配置环境内容Anaconda安装下载Cudnn和CUDA配置torch环境创建环境:激活环境pytorch轮子下载matplotlib==2.2.2 ,jupyter==1.0.0,pandas==0.23.4 安装还有pycharm和VScode的安装重要的一步环境创建提示环境内容python==3.6torch==1.2.0torchvision==0.4.0jupyter==1.0.0matplotlib==2.2.2pandas==0原创 2020-07-06 18:07:52 · 846 阅读 · 0 评论 -
小样本学习记录————文本中特征空间的数据增强MEDA: Meta-Learning with Data Augmentation for Few-Shot Text Classification
MEDA: Meta-Learning with Data Augmentation for Few-Shot Text Classification出发点数据增强球合成器合成模块Synthesis module转换模块Transformation module损失函数球生成器部分损失函数元学习损失训练策略实验数据集结语出发点对于小样本学习文本分类问题中,限制其性能的主要原因之一是因为对于每一个类别有多种的表示方式。所以本文提出了一种数据增强方式来解决样本不足的问题。数据增强原文的数据增强:随机替原创 2022-04-26 15:07:25 · 2975 阅读 · 0 评论 -
深度学习记录第一篇————numpy的基本操作
numpy学习记录1.1 生成numpy数组1.1.1 从已有数据中创建数组1.1.2 利用 random 模块生成数组1.1.3 创建特定形状的多维数组1.1.4 利用 arange、linspace 函数生成数组1.2 获取元素1.3 Numpy的算术运算1.3.1对应元素相乘1.3.2 点积运算1.4 数组变形1.4.1 更改数组的形状1.4.2 合并数组1.5 批量处理1.6 通用函数1.7 广播机制1.1 生成numpy数组import numpy as np#查看numpy函数的帮助信息原创 2020-07-05 19:23:00 · 778 阅读 · 0 评论 -
深度学习记录第二篇————Tensor基本操作
Tensor 学习创建Tensor生成特定tensor改变形状索引操作广播机制逐元素操作归并操作比较操作矩阵操作Pytorch与Numpy比较Tensor与Autograd计算图标量反向传播非标量反向传播使用Numpy实现机器学习使用Tensor及antograd实现机器学习使用TensorFlow架构课后感悟创建Tensorimport torchx=torch.tensor([1,2])y=torch.tensor([3,4])z=x.add(y)x,y,z(tensor([1,原创 2020-07-05 14:52:50 · 1271 阅读 · 0 评论 -
深度学习记录入门篇————利用numpy,pytorch,tensorflow最简单的机器学习
最简单的机器学习实现先了解一下什么是梯度下降梯度是什么呢学习率又是啥梯度下降分类批量梯度下降随机梯度下降小批量梯度下降使用Numpy实现机器学习使用Tensor及antograd实现机器学习使用TensorFlow架构不同实现方法的比较GitHub地址https://github.com/yunlong-G/tensorflow_learn/blob/master/%E5%9F%BA%E6%9C%AC%E7%9A%84/%E6%9C%80%E7%AE%80%E5%8D%95%E7%9A%84%E6%9C原创 2020-07-06 21:40:01 · 2644 阅读 · 0 评论 -
深度学习记录第三篇————利用Pytorch神经网络工具箱搭建神经网络
第3篇 Pytorch神经网络工具箱学习记录3.1 神经网络核心组件3.2实现神经网络实例3.2.1背景说明3.2.2准备数据3.2.3可视化源数据3.2.4 构建模型这个地方比较蒙,这模型咋就构建好了呢?__init__(self, in_dim, n_hidden_1, n_hidden_2, out_dim)Sequential()干了什么Linear()干了什么BatchNorm1d()干了什么forward()干了什么3.2.5 训练模型3.3 如何构建神经网络?3.3.1 构建网络层3.3.2原创 2020-07-07 18:29:32 · 1262 阅读 · 1 评论 -
深度学习记录第四篇————Pytorch数据处理工具箱
学习资料http://www.feiguyunai.com/index.php/2019/07/31/pytorch-04/GitHub上利用tensorboard可是化的例子https://github.com/lanpa/tensorboardX/blob/master/examples/demo_graph.pyhttps://github.com/lanpa/tensorboardX/blob/master/README.md我的代码...原创 2020-07-10 13:21:46 · 1011 阅读 · 0 评论 -
深度学习记录第五篇————机器学习基本方法介绍(理论篇)
第五篇机器学习方法介绍5.1 机器学习的基本任务5.1.1监督学习5.1.2 无监督学习5.1.3 半监督学习5.1.4 强化学习5.2 机器学习一般流程5.2.1 明确目标5.2.2收集数据5.2.3 数据探索与预处理5.2.4 选择模型及损失函数5.2.5 评估及优化模型5.3 过拟合与欠拟合5.3.1 权重正则化5.3.2 dropout正则化5.3.3 批量正则化5.3.4权重初始化5.1 机器学习的基本任务机器学习的基本任务一般分为四大类,监督学习、无监督学习、半监督学习和强化学习。监督学习、转载 2020-07-15 11:25:53 · 817 阅读 · 0 评论 -
深度学习记录例子篇————droupout正则化和BN层
droupout正则化和BN层droupout是什么使用dropout正则化解决拟合问题批量正则化droupout是什么使用dropout正则化解决拟合问题(1)导入需要的包和数据集from sklearn.datasets import load_bostonfrom sklearn.model_selection import train_test_splitimport numpy as npimport matplotlib.pyplot as pltimport torchim原创 2020-07-17 18:23:05 · 4559 阅读 · 0 评论 -
深度学习记录第六篇————计算机视觉基础
计算机视觉基础6.1卷积神经网络简介6.2卷积层6.2.1 卷积核6.2.2步幅6.2.3 填充6.2.4 多通道上的卷积6.2.5激活函数6.2.6卷积函数6.2.7转置卷积6.3池化层6.3.1 局部池化6.3.2全局池化6.1卷积神经网络简介卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,对于CNN最早可以追溯到1986年BP算法的提出。1989年LeCun将其用到多层神经网络中,直到1998年LeCun提出LeNet-5模型,神经网络的雏形基原创 2020-07-21 12:03:25 · 758 阅读 · 0 评论 -
深度学习记录例子篇————Pytorch实现cifar10多分类
深度学习记录例子篇————Pytorch实现cifar10多分类Pytorch实现cifar10多分类1 准备数据2 构建网络3 训练模型4 测试模型5 采用全局平均池化6 像keras一样显示各层参数Pytorch实现cifar10多分类1 准备数据(1)导入模块import torchimport torchvisionimport torchvision.transforms as transforms(2)下载数据集transform = transforms.Compose(原创 2020-07-21 13:45:36 · 1825 阅读 · 0 评论 -
深度学习记录例子篇————经典卷积模型(LeNet,AlexNet,VGG,GoogleNet,NIN,ResNet,DenseNet)
深度学习记录例子篇————经典卷积模型(LeNet,AlexNet,VGG,GoogleNet,NIN,ResNet,DenseNet)前言LeNet模型简介通过Sequential类构建LeNet使用模型AlexNet特征的表示原因一:数据原因二:硬件AlexNet简介AlexNet简单实现小结VGG感受野和特征图VGG简单实现小结NINNIN块NIN简介GoogLeNetInception块GoogLeNet实现小结ResNet残差块ResNet简单实现小结DenseNet稠密块过渡层DenseNe简单原创 2020-07-28 13:14:38 · 1021 阅读 · 0 评论 -
深度学习记录例子篇————最简单的逻辑回归
逻辑回归逻辑回归假设数据预测变量(预期目标):数据搜索创建虚拟变量使用SMOTE进行过采样(Over-sampling)递归特征消除(Recursive Feature Elimination)实现模型逻辑回归模型拟合Confusion Matrix(混乱矩阵)计算精度,召回(recall),F测量(F-measure)和支持ROC曲线学习感悟逻辑回归是一种机器学习分类算法,用于预测分类因变量的概率。在逻辑回归中,因变量是一个二进制变量,包含编码为1的数据(是、成功等)。)或0(否、失败等。)。换句话说,原创 2020-08-27 16:53:53 · 2562 阅读 · 0 评论 -
深度学习记录配置篇————服务器python虚拟环境配置+pycharm远程连接
深度学习记录————服务器python虚拟环境配置+pycharm远程连接服务器配置python虚拟环境下载anconada安装ancondada激活系统环境变量服务器多用户下如何使用创建环境激活环境查看python的路径退出环境pycharm远程连接打开pycharm设置解释器测试深度学习环境代码服务器配置python虚拟环境下载anconadawget https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-2020.07-L原创 2021-11-25 11:22:20 · 1859 阅读 · 0 评论