自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 Servlet.service() for servlet [dispatcherServlet] in context with path [] th

3.@RestController使用成了@Controller。1.controller层没有加@ResponseBody。2.Service层实现类未添加注解@Autowired。

2022-08-10 09:16:17 12523 1

转载 高纬度思考法读书笔记

01无知与未知对无知的关注是一切创造性活动的触发器这句话是整本书论证的基础,作者认为“无知本身并不是问题,不知道自己无知才是最大的问题”不要惧怕无知。很多人惧怕无知,觉得自己在某件事上的无知是羞耻的,而极力伪装。其实这种认知是错误的,一个人是不可能知道所有的东西的。不要逃避无知。面对无知,我们首先要做的是坦然,逃避是解决不了问题的,即使你伪装了一时又有什么用呢?当遮羞布被揭开的时候,结果会更加不可控;其次是求知,强烈的求知欲是一种该具备的品质。已知与未知主要有以下三种情景:已知的已知:已经解决

2021-06-02 09:22:33 320

原创 window10配置maskrcnn_benchmark

下载文件下载apex、cocoapi、maskrcnn benchmar文件链接:https://pan.baidu.com/s/11kxSFkuUjKfnFRx5jRJQ0w提取码:1n1q复制这段内容后打开百度网盘手机App,操作更方便哦创建虚拟环境,并激活conda create --name maskrcnn_benchmark python=3.7conda activate maskrcnn_benchmark这里使用的python3.7版本,因为pytorch-nightly

2021-04-20 14:38:00 636 1

原创 调参初步总结

超参数什么是超参数,参数和超参数的区别区分两者最大的一点就是是否通过数据来进行调整,模型参数通常是有数据来驱动调整,超参数则不需要数据来驱动,而是在训练前或者训练中人为的进行调整的参数。例如卷积核的具体核参数就是指模型参数,这是有数据驱动的。而学习率则是人为来进行调整的超参数。这里需要注意的是,通常情况下卷积核数量、卷积核尺寸这些也是超参数,注意与卷积核的核参数区分。神经网络中包含哪些超参数?用于训练的超参数学习率(learning rate)批次大小(batch_size)用于模型设计的超

2021-03-25 15:54:14 396

原创 Ubuntu下使用anaconda安装pytorch

Ubuntu下使用anaconda安装pytorchA方案首先进入自己创建的虚拟环境source activate minist #minist是我使用的名称安装的指令可以在pytorch的官网上生成[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HefAC64J-1594557742176)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-202007121944253

2021-03-11 15:20:23 591

原创 学习观

学习观01-07一:什么是学习记忆:线性的映射关系,存储有限的例子,没有对信息进行压缩分析。特点:容量有限,难以集齐。学习:通过有限的例子,找出问题和答案之间规律(知识),使用知识来压缩信息。特点:找出知识,压缩信息总结:学习是使用知识对信息进行压缩的过程,通过有限的例子,掌握能够满足现实生活中更多情况的规律。单纯的记忆并不是学习,这也是学习越来越达不到预期的原因,说白了就是认为记忆就是学习,缺少了总结规律的过程。二:如何学习一:明确问题和答案学习之前应该明确学习的该知识应对的问题和得

2021-03-01 14:14:06 246

原创 Strip(),split()

strip函数原型声明:s为字符串,rm为要删除的字符序列. 只能删除开头或是结尾的字符或是字符串。不能删除中间的字符或是字符串。s.strip(rm) 删除s字符串中开头、结尾处,位于 rm删除序列的字符s.lstrip(rm) 删除s字符串中开头处,位于 rm删除序列的字符s.rstrip(rm) 删除s字符串中结尾处,位于 rm删除序列的字符注意:当rm为空时,默认删除空白符(包括’\n’, ‘\r’, ‘\t’, ’ ')例如:2.这里的

2020-12-01 10:55:30 129

原创 2016ResNet

1.问题提出按照正常理解,越深的网络,网络的表达能力越强。但是现在的问题是:随着网络深度的增加逐渐出现了问题。梯度消失/爆炸问题出现。但是随着归一化以及在网络中间层进行归一化等等方式出现得到了解决。退化问题。随着网络深度的加深,网络训练结果反而比不上层数较少的网络。如下图所示:该图中的两个表分别是训练损失的变化曲线和测试损失的变化曲线。因为增加了新的网络层,所以最初认为是因为参数过多导致过拟合。但是由图可看出该结果不是由过拟合,因为过拟合情况下训练的损失应该会更低,测试的损失变大。2.解决办

2020-11-12 10:00:32 504 1

原创 TEA论文阅读

1.时间建模时间建模是视频中动作识别的关键,时间建模分为两个方面。short-range motions:相邻帧之间的特征融合。long-range aggregations:长时间序列的特征融合。当前的方法以及缺点。short-range motions首先提取手工制作的光流,然后将其输入基于2D CNN的双流框架进行动作识别。这样的双流架构分别处理每个流中的RGB图像和光流。光流的计算既耗时又需要存储。空间和时间特征的学习是孤立的,并且仅在后期层执行融合。.

2020-11-09 10:15:17 836 2

原创 TSM源码分析

1,源码下载在文件夹下右键打开Git Bash Here,输入如下代码:git clone git@github.com:mit-han-lab/temporal-shift-module.git2,代码结构文件名称功能main.py训练代码opts.py参数配置代码ops/dataset.py数据集的载入代码ops/dataset_config.py用于配置不同的数据集ops/model.py用于组装模型ops/temporal_shi

2020-10-10 18:36:36 2389 4

原创 Image.open(x).convert(‘RGB‘)

在pytorch自定义数据集的时候,需要使用到如下代码Image.open(x).convert('RGB')使用Image.open读出图像即可,为什么还需要使用convert(‘RGB’)转换成RGB,难道Image.open()读出的彩色图像不是RGB吗使用如下代码进行测试:img = Image.open('pokeman\\bulbasaur\\00000000.png').convert('RGB')img2 = Image.open('pokeman\\bulbasaur\\000

2020-10-08 08:34:54 13949 3

原创 tsn

TSN1.如何提帧1.1数据集准备下载网址:http://crcv.ucf.edu/data/UCF101/UCF101.rar下载成功后的UCF文件夹如下所示:该文件夹下是各种动作的视频文件,共有101种类别下图是UCF101在进行训练和测试时,分割的依据文件1.2源码准备在实验过程中,我们需要使用tsn-pytorch和mmaction的一些代码文件,所以我们提前从Git上获得存储在本地。下载mmaction:git clone --recursive https://githu

2020-10-04 19:53:02 1482 5

原创 batch_normalization

1.tf.nn.batch_normalization(x,mean,variance,offset,scale,variance_epsilon,name=None)x:inputmean:样本均值variance:样本方差offset:样本偏移(相加一个转化值)scale:缩放(默认为1)variance_epsilon:为了避免分母为0,添加的一个极小值2.tf.nn.moments(x,axes,name=None,keep_dims=False)x:inputaxes:维度3.

2020-07-20 14:58:47 99

原创 pycharm单步调试

debug模式点击运行标志旁的小甲虫标志级进入debug模式,也可以右键代码进入debug模式中的按键解释断点设置在代码前左键点击会生成红色的点开始debug点击小甲虫标志之后,代码会停在红点的前一行,并且会把每一行的数据大小,类型给显示在对应的代码后面,控制框也可看到之后可以使用单步调试也就是F8让他逐行运行代码运行经过数据转入代码之后可以看到 batch_xs,batch_ys中的数据信息,包括他的最值、类型、元素数量以及shape。当需要跳过循环的时候可以使用F9跳到光标

2020-07-10 08:15:17 5506

原创 tensorflow非线性实例

代码:#因为我使用的是tensorflow2.0所以使用1,2两行代替import tensorflow as tf#下面三行加入相应的库import tensorflow.compat.v1 as tf #1tf.disable_v2_behavior() #2import numpy as npimport matplotlib.pyplot as plt #使用numpy生成200个随机点#在-0.5~0.5之间等差的获得200个点,默认是生成50个#[:

2020-07-09 10:26:52 249

原创 cs231神经网络学习笔记

简介相比于线性分类中的S = W×X,其中W是一个矩阵,X是一个列向量,包含图像的全部像素信息。它们相乘的直接结果就是得到一个得分向量。像数据库CIFAR-10的案例中W是一个10×3072的矩阵,X是一个3072×1的向量,他们的结果就是得到10×1的得分向量》神经元则不同,它的计算法则是其中的W1可以是100×3072的矩阵与X相乘的到一个100×1的过度向量,max()函数是非线性的,这种非线性的函数有多种选择。W2是10×100的向量最终的到10×1的得分向量。注意非线性函数在计算上是至关

2020-07-02 14:07:25 183

原创 cs231反向传播笔记

反向传播实践代码示例:函数表达式:代码示例x = 3 # 例子数值y = -4# 前向传播sigy = 1.0 / (1 + math.exp(-y)) # 分子中的sigmoi #(1)num = x + sigy # 分子 #(2)sigx = 1.0 / (1 + math.exp(-x)) # 分母中的sigmoid #(3)xpy = x + y

2020-07-02 10:30:30 82 1

原创 cs231线性分类笔记

最简单的线性分类器公式每个图像由32×32×3个像素,上述公式中把图像拉伸为一个3072×1的向量。W和b是参数,其中W是一个k×3072的矩阵(k表示类别数),被称为权重,b是一个k×1的偏执向量。1,一个单独的矩阵乘法就高效地并行评估10个不同的分类器,其中每个类的分类器就是W的一个行向量。2,其中的参数是可以控制的,目的就是找到最合适的参数使得准确率做高。3,数据驱动方式,就是利用训练集进行训练,找到做合适的参数,然后训练集就可以丢弃,只留下训练得到的参数。理解线性分类器图例图中是一

2020-07-01 11:00:02 217

原创 cs231n课程:图像分类笔记

图像是一个由数字组成的巨大的三维数组。在这个例子中,猫的图像大小是宽248像素,高400像素,有3个颜色通道,分别是红、绿和蓝(简称RGB)。如此,该图像就包含了248X400X3=297600个数字,每个数字都是在范围0-255之间的整型,其中0表示全黑,255表示全白。我们的任务就是把这些上百万的数字变成一个简单的标签,比如“猫”。采用数据驱动算法给计算机很多数据,然后实现学习算法,让计算机学习到每个类的外形。这种方法,就是数据驱动方法。图像分类的步骤在课程视频中已经学习过,图像分类就是输入

2020-06-30 20:16:32 201

原创 tensorbosrd使用方法

tensorboard的具体使用方法示例代码如下,实现的是矩阵相乘,参考的是https://www.cnblogs.com/fydeblog/p/7429344.htmlimport tensorflow as tfwith tf.name_scope('graph') as scope: matrix1 = tf.constant([[3., 3.]],name ='matrix1') #1 row by 2 column matrix2 = tf.constant([[2

2020-06-30 12:16:15 285

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除