Studying_swz
-
展开
-
ubutun/linux(终端)安装anaconda3以及pytorch
1.下载anaconda3首先下载anaconda,由于官网的下载速度十分缓慢,而且还不支持断点续传,经常下载失败。故而,去国内的镜像站点下载:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/选择对应的版本下载,下载完成后上传到linux机器上去,服务器选择filezilla上传,虚拟机直接拖拽进去就ok了,这里我的linux服务器,并且ubutun系统版本18.0.4,这里下载的Anaconda3-5.2.0-Linux-x86_64.s原创 2020-08-19 08:41:24 · 907 阅读 · 0 评论 -
pytorch实现基本的logistic和softmax回归实验(手动+torch)
前提:不是前馈神经网络,没有隐藏层。一:Logistic回归实验–人工构造数据集,手动构造模型要求:动手从0实现logistic回归,实现二分类,人工构造数据集,并分析loss、训练集、测试集的准确率。(要求从零实现二元交叉熵)实验过程:1.1人工构造数据集1. # #自定义数据---训练集 2. num_inputs = 2 3. n_data = torch.ones(1500, num_inputs) # 数据的基本形态 4. x1 = torch.normal(2 * n_d原创 2020-08-23 11:17:03 · 10471 阅读 · 7 评论 -
深度学习复习总览(六)
循环神经网络:https://blog.csdn.net/qq_37534947/article/details/108369828原创 2020-10-19 18:49:25 · 691 阅读 · 0 评论 -
深度学习复习总览(五)
文章目录卷积神经网络一、三个特点二、卷积和互相关三、卷积操作四、池化五、增加输出单元的感受野六、卷积网络发展历程卷积神经网络为什么引入卷积网络?主要是对于图片来说,全连接神经网络的几个弊端如下:一、三个特点稀疏交互/局部连接:在全连接神经网络,一层的每个神经元和前一层的所有神经元都有连接;而在卷积神经神经网络中,输出单元和前一层的部分神经元(卷积核大小)有连接;这样导致的结果是参数由M(L)*M(L-1)减少为M(L) *K * K. 其中K为卷积核大小/滤波器大小。参数共享:对于上面原创 2020-10-19 18:48:03 · 785 阅读 · 0 评论 -
深度学习复习总览(四)
深度模型优化与正则化:网络优化目的:经验风险最小化。对于低维来说,目的是逃离局部最优点;对于高维来说,则是逃离鞍点。梯度下降批量梯度下降、小批量梯度下降、随机批量梯度下降。学习率流程:学习率预热、学习率衰减、学习率周期调整、自适应学习率。1)学习率预热:2)学习率衰减3)周期性学习率调整4)自适应学习率缓解batch小导致的幅度震荡动量法比较:参数初始化数据初始化超参数优化过拟合-正则化有点累了—以后再写.原创 2020-10-18 21:29:45 · 751 阅读 · 3 评论 -
深度学习复习总览(三)
前馈神经网络:https://blog.csdn.net/qq_37534947/article/details/107832979补充:人工神经网络的三大要素:万能近似定理:可以看到只需要一个线性输出层和一个隐藏层组成的神经网络就可以近似任何函数,但是规模可能巨大,随着深度的增加,网络的表示能力呈指数增加。并且有着更好的泛化能力,但是未必带来模型效果的提升。...原创 2020-10-18 21:14:51 · 871 阅读 · 0 评论 -
深度学习复习总览(一)
一:绪论人工智能:使一部机器人像人一样进行感知、认知、决策、执行的人工程序或系统。标志事件表:人工智能诞生:1956年的达特茅斯会议三个层面:目前处于第二个分类:三起两落:其中第一次是感知机的出现,第二次是BP的出现,第三次是包括是三个,分别是:逐层预训练算法、深度学习算法在ImageNet以及2016年的AlphaGo。一些重要人物:二:基础知识机器学习三要素:模型、学习准则、优化算法。模型:映射函数。学习准则:经验风险最小化。优化算法:梯度下降。神经原创 2020-10-18 20:54:33 · 1098 阅读 · 1 评论 -
深度学习复习总览(二)
深度学习的框架:核心组件张量、基于张量的相关操作、计算图、自动微分工具、cudnn等扩展包。张量:多维数组,0维张量即标量、1维张量即矢量、2维张量即矩阵、3为张量矩阵数组、4为张量…基于张量的相关操作:计算图:自动微分工具cudnn等扩展包:发展历程Tensorfloe和Pytorch对比主流框架介绍...原创 2020-10-18 21:05:42 · 813 阅读 · 0 评论 -
pytorch实现循环神经网络实验
一:手写循环神经网络的实现实验: 手动实现循环神经网络RNN,并从至少一个数据集上进行实验,这里我选取了高速公路传感器数据PEMS04(后面的实验都是用的高速公路传感器数据),主要根据数据集的大小以及特征维度,手动实现循环神经网络,包括输入层、隐藏层、输出层,其中注意的是下一层的输入是本身和上一层的隐藏层的同时输入,最后的RNN的返回值为最后一步的隐藏状态,以及每一步的输出状态。实验目的: 利用手动实现的循环神经网络RNN,利用高速公路车流量数据集,学习回归模型,使得该模型可以很好的根据历史的车流量数据原创 2020-12-01 18:07:31 · 11572 阅读 · 17 评论 -
pytorch实现前馈神经网络实验(手动实现)
一:“手动实现前馈神经网络解决回归、二分类、多分类任务”实验1.1“手动实现前馈神经网络解决回归”实验实验过程:1.1.1 导入所需要的包1. import torch 2. import numpy as np 3. import random 4. from IPython import display 5. from matplotlib import pyplot as plt 6. import torch.utils.data as Data 1.1.2自定义数原创 2020-10-31 00:04:07 · 14724 阅读 · 30 评论 -
pytorch实现前馈神经网络实验(torch实现)
手动实现请参考:https://blog.csdn.net/qq_37534947/article/details/109394648二:“利用torch.nn实现前馈神经网络解决回归、二分类、多分类任务”实验注: 因为相比于手动实验其主要是在模型的构建中利用了torch.nn模块,其他的部分都是一样的,这里我主要介绍如何利用torch模块构建的模型。2.1“利用torch.nn实现前馈神经网络解决回归”实验实验过程:2.1.1 利用torch.nn构建模型以及初始化参数1. #实现Flatte原创 2020-10-31 14:35:39 · 8064 阅读 · 10 评论 -
pytorch实现空洞卷积+残差网络实验(torch实现)
一:pytorch实现空洞卷积实验(torch实现)要求:从至少一个数据集上进行实验,同理,这里我选取了车辆分类数据集(后面的实验都是用的车辆分类数据集),主要在之前利用torch.nn实现二维卷积的基础上,为解决感受野比较的问题,将普通的卷积修改为空洞卷积,并且卷几率符合HDC条件(这里我选取了1,2,5),并且堆叠了2层HDC,即一共六层卷积层。实验过程:注:所谓的空洞卷积,与https://blog.csdn.net/qq_37534947/article/details/109726153的原创 2020-11-16 19:10:11 · 17119 阅读 · 22 评论 -
Pytorch实现经典模型AlexNet模型
一:Pytorch实现经典模型AlexNet模型要求:使用pytorch实现经典的分类模型AlexNet,这里主要因为没有GPU环境,而其完整参数达到了6000万个,所以如ppt要求,在该模型的基础架构上,修改卷积核的大小以及卷积操作的步长等来模拟实现。实验设计:实验过程:注:这里主要介绍一下AlexNet模型的定义,其中因为参数量过大,以及图片的输入大小变为了64*64,所以对于每层的卷积核大小以及步长等做了相关变化。1.1AlexNet模型定义1. # 定义神经网络 2. cl原创 2020-11-16 18:12:02 · 3606 阅读 · 18 评论 -
pytorch实现卷积神经网络实验
一:手写二维卷积的实现要求:手写二维卷积的实现,并从至少一个数据集上进行实验,这里我选取了车辆分类数据集(后面的实验都是用的车辆分类数据集),主要根据数据集的大小,手动定义二维卷积操作,如:自定义单通道卷积、自定义多通道卷积、自定义卷积层等。实验过程:1.1相关包的导入1. import torch 2. import numpy as np 3. import random 4. from IPython import display 5. from matplotlib imp原创 2020-11-16 18:04:06 · 11706 阅读 · 72 评论