自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 前端面试高频知识点(持续更新版)

前端面试高频知识点(持续更新版)

2022-07-11 14:24:16 349 1

原创 paper reading(2)-HOTR: End-to-End Human-Object Interaction Detection with Transformers

注:该文章取自CVPR2021源码:Abstract首先介绍了一下HOI任务:检测人与物体交互关系的任务,包含i)定位交互的主体和客体ii)交互标签的分类大多数现有的方法是通过检测人和对象,分别推断每一对直接的关系,但这种方法是间接地解决问题。本文提出了HOTR框架,基于transformer的encoder-decoder结构直接预测(人,物体,交互)的三元组集合。这种预测集合的方法,有效地利用了内部语义关系,节约了时间成本。1. Introduction先前解决HOI的方法是,先进行对

2021-05-12 14:43:37 1158 1

原创 paper reading(1)-Meta Batch-Instance Normalization for Generalizable Person Re-Identification

注:该文章取自CVPR2021源码:https://github.com/bismex/MetaBINAbstract有监督的person re-id方法已经具有良好性能,但对于不可见的域,泛化能力较弱。许多现有的方法采用instance normalization(实例正则化,消除风格),但instance normalization会丢失关键的判别信息。本文提出的MetaBIN方法main idea:通过元学习的pipeline预先模拟不成功的泛化场景(Under-style-normaliz

2021-05-06 16:10:23 675 4

原创 李飞飞计算机视觉-自用笔记(第八周)

李飞飞计算机视觉-自用笔记(八)15 深度学习高效方法与硬件15 深度学习高效方法与硬件庞大模型的三大挑战:大小、速度、能源效率解决方法:1、算法优化:剪枝(pruning):并非神经网络中的所有参数都是有用的,可以通过连接训练减少连接数量,对于网络精度几乎没有降低,同时还可以降低模型复杂度、预防过拟合等。权值共享(哈弗曼编码、SqueezeNet);量化;低秩分解:一个卷积层可以分解为两个不同卷积核的卷积层;二、三进制网络;WINOGRAD卷积:一种降低卷积计算算法强度的方法,论文参

2020-09-04 08:31:05 173

原创 第十周学习总结

第十周学习总结计算机视觉PyTorch计算机视觉复习了无监督学习的相关概念,了解了了计算机视觉中生成模型的不同方法pixelRNNs 、CNNs、Auto-Encoders和GANS,学习了强化学习的基本方法。PyTorch对MNIST数据集完成了VAE模型的代码实现,学习了GAN的部分基础知识。...

2020-08-28 17:55:36 108

原创 李飞飞计算机视觉-自用笔记(第七周)

李飞飞计算机视觉-自用笔记(六)13 生成模型13.113 生成模型属于无监督学习的一种,在该任务中,通过给定训练数据的情况下,我们的目标是从相同的数据分布中生成新的样本生成式模型可以解决密度估计的问题,关于估计训练数据的潜在分布的任务,这也是无监督学习的核心问题13.1...

2020-08-28 16:41:34 335

原创 PyTorch自用笔记(第七周)

十三、自编码器Auto-Encoders13.1 无监督学习

2020-08-28 16:41:17 119

原创 PyTorch自用笔记(第六周-实战2)

PyTorch自用笔记(第六周)十一、循环神经网络RNN&LSTM11.1 时间序列表示方法11.2 RNN十一、循环神经网络RNN&LSTM11.1 时间序列表示方法[seq_len, feature_len]:[序列长度, 特征长度/维度/表示方法]文本信息:1.one-hot编码:特定的位置编码为1,其余为0缺点:稀疏2.[words, words_vec]Batch:[word num, b, word vec][b, word num, word vec]编

2020-08-21 16:51:56 757

原创 第八周学习总结

第八周学习总结计算机视觉PyTorch计算机视觉学习了计算机视觉中语义分割、目标识别等方向的基本方法;学习了可视化方向的目的和工作,以及各种可视化方法,如部分遮挡、愚弄图像、DeepDream、特征反演、纹理合成、风格迁移等。PyTorch学习了nn.Module模块和数据增强的基本方法,包括翻转、旋转、随机移动和裁剪等;复习了LeNet-5和ResNet,并在CIFAR10数据集下对两个神经网络进行了代码实现。...

2020-08-14 17:16:25 84

原创 李飞飞计算机视觉-自用笔记(第六周)

李飞飞计算机视觉-自用笔记(六)11 图像分割、定位、检测11.1 语义分割11.2 图像分类+定位11.3 对象识别11 图像分割、定位、检测11.1 语义分割方法1:滑动窗口问题:效率低下方法2:全连接卷积网络问题:计算量太大,耗费内存方法3:卷积与下采样结合上采样:按某规则扩充像素转置卷积:不再是对应元素与卷积核做内积,而是用输入做权重处理卷积核,使输出是带有权重的卷积核的叠加11.2 图像分类+定位通常有两个全连接层,其中一个输出类别及得分,另一个输出坐标及图像的长、宽分别

2020-08-14 17:08:17 381

原创 PyTorch自用笔记(第五周-实战1)

PyTorch自用笔记(第五周)十、10.1十、10.1

2020-08-14 17:08:05 355

原创 第七周学习总结

第七周学习总结计算机视觉PyTorch水下识别技术路线遇到的问题计算机视觉了解了循环神经网络的基本结构PyTorch复习了神经网络、全连接层的相关知识,完成了对全连接层的代码实现;学习了一些实战中的技巧,包括交叉验证集的划分、正则化、动量与学习率衰减、dropout等的代码实现;复习了卷积神经网络CNN和经典卷积网络的相关知识。计划在下周对重点网络ResNet进行实战。水下识别技术路线初步了解了URPC比赛的相关内容;了解并复习到了关于图像处理的知识,包括图像降噪、图像分割、目标检测等;关于基于

2020-08-07 16:44:56 125

原创 李飞飞计算机视觉-自用笔记(第五周)

李飞飞计算机视觉-自用笔记(五)10 循环神经网络10 循环神经网络RNN:Recurrent Neural Network输入与输出存在多种对应关系核心模块:用公式来表示:普通的反向传播在RNN中的计算会很繁琐,所以提出了一种沿时间的截断式反向传播方法:即使输入的序列很长,在训练模型时,前向计算若干步,反向传播得出参数LSTM:Long Short Term Memory长短期记忆网络,可缓解梯度消失和梯度爆炸的问题h(t):隐藏状态c(t):单元状态f遗忘门,决定是否清除单

2020-08-07 16:26:20 183

原创 PyTorch自用笔记(第四周)

PyTorch自用笔记(第四周)七、神经网络与全连接层7.1 逻辑斯蒂回归7.2交叉熵7.3 多分类问题实战7.4 全连接层七、神经网络与全连接层7.1 逻辑斯蒂回归线性回归回顾:机器学习-吴恩达(第一周)二、模型描述目标:pred = y方法:最小化dist(|pred - y|)逻辑斯蒂回归:机器学习-吴恩达(第二周)六、分类问题目标:benchmark如精确度方法1:最小化dist方法2:最小化divergence7.2交叉熵softmax复习:enlarger the lar

2020-08-07 16:26:04 491

原创 第六周学习总结

第六周学习总结PyTorch:本周继续学习了基本操作,包括tensor的合并与分割、数学运算、属性统计等;另外复习了随机梯度下降算法,并通过一个demo实现了自动求梯度和反向传播;此外还实现了一个2D函数的模型构建与优化。PyTorch自用笔记(第三周-进阶篇)计算机视觉:本周学习了一些CNN框架,包括LeNet-5、AlexNet、VGGNet、GoogLeNet、ResNet、DenseNet等,了解了主流框架的基本结构和主要特点。李飞飞计算机视觉-自用笔记(第四周)...

2020-07-31 17:44:06 118

原创 李飞飞计算机视觉-自用笔记(第四周)

李飞飞计算机视觉-自用笔记(四)9 CNN框架9.1 更好地优化9 CNN框架9.1 更好地优化

2020-07-31 16:24:59 251

原创 PyTorch自用笔记(第三周-进阶篇)

PyTorch进阶五、进阶操作5.1 合并与分割`cat`-合并`stack`-创建新维度`split`-by len`chunk`-by num五、进阶操作5.1 合并与分割cat-合并stack-创建新维度注:原shape必须一样split-by len参数是长度chunk-by num参数是数量...

2020-07-31 14:44:41 145

原创 第五周学习总结

第五周学习总结PyTorch方面,本周学习了一系列PyTorch基础语法和函数,包括张量的创建、初始化;索引、切片以及维度变换等基本操作,对于这些常用的函数在Jupyter上进行了调试与实现本周在计算机视觉方面学习了训练神经网络过程中,一些优化算法,如SGD、AdaGrad、RMSProp、Adam;学习了函数优化完毕后,用模型集成提高模型在测试集上表现的基本思想;复习了一些正则化基本方法;学习了四种不同情况下迁移学习的应用;此外,了解了主流的深度学习框架。计划在下周学习CNN框架和循环神经网络。.

2020-07-24 16:48:39 93

原创 PyTorch自用笔记(第二周-基础篇)

PyTorch基础一、基本数据类型-张量二、创建Tensor一、基本数据类型-张量Python与PyTorch中基本数据类型的对比string在PyTorch中的表示方式有两种:1.One-hot编码[0, 1, 0, 0, …],但该方式不能体现词与词之间的相关性2.Embedding(略)常用内建数据类型:CPUGPUtorch.FloatTensortorch.cuda.FloatTensortorch.IntTensortorch.cuda.IntTen

2020-07-24 16:47:11 171

原创 李飞飞计算机视觉-自用笔记(第三周)

7 训练神经网络(下)7.1 更好地优化梯度下降法存在的问题:1.如果损失值在某一个方向下降很快而在其他方向下降很慢,梯度下降过程会成为一个“之”字形,导致其在水平方向前进速度缓慢,这种现象在高维空间普遍出现2.高维问题中,更容易陷入局部最优解,无法跳出;鞍点(saddle point):某些方向损失增加,某些方向损失减小,这个问题也在高维度时尤为突出3.随机性会引入噪声解决方法:SGD+Momentum(带动量的SGD)思想:保持一个不随时间变化的速度,将梯度估计添加到这个速度上,在后在这个

2020-07-24 16:47:05 172

原创 第四周学习总结

第四周学习总结本周在机器学习方面主要学习了对于机器学习算法优化的一些基本方法和思路,交叉验证集的概念和学习曲线在高偏差或高方差情况下的不同特征-机器学习-吴恩达(第四周)计算机视觉方面复习到了神经网络,加深了对反向传播过程的理解,学习了卷积神经网络的基本构成,各个层次的组成。此外还学习了训练神经网络的步骤,以及每个步骤所用到的具体方法-李飞飞计算机视觉-自用笔记(第二周)计划在下周重点学习计算机视觉课程中训练神经网络过程中的正则化和迁移学习;并开始对PyTorch的系统性学习...

2020-07-17 17:54:56 87

原创 机器学习-吴恩达(第四周)

机器学习 第四周十、算法优化10-1 可能遇到的问题10-2 评估假设10-3 模型选择十、算法优化10-1 可能遇到的问题在测试机器学习算法的过程中,假设已经计算出了房屋价格预测的线性回归模型,并有了代价函数;然而在测试数据时发现模型预测结果与实际结果存在巨大偏差,此时往往会考虑到如下做法:获得更多训练数据尝试减少特征尝试获取更多特征增加多项式特征增大或减小λ对于方法的选择不能盲目,要学会有效地排除不可用的方法,以节省时间10-2 评估假设通常将数据集按照7:3的比例分为训练集和

2020-07-17 16:52:08 193

原创 李飞飞计算机视觉-自用笔记(第二周)

李飞飞计算机视觉-自用笔记(二)4 神经网络4.1 反向传播4.22 图像分类2.1 数据-驱动方法4 神经网络先导知识:计算图框架:用图来表示任意函数,其中图的节点表示要执行的每一步计算4.1 反向传播反向传播本质:运用链式法则从后往前求微分,从最后一层损失函数开始,对于前面一层的变量求微分,在之后向前传播的过程中,每层都要乘上该层的本地微分4.22 图像分类2.1 数据-驱动方法...

2020-07-17 16:51:50 204

原创 第三周学习总结

第三周学习总结 一、李飞飞计算机视觉-自用笔记(第一周) 二、机器学习-吴恩达(第三周)三、PyTorch自用笔记(第一周)小结:计算机视觉:主要学习了K最近邻算法的基本思想;了解到计算机视觉中解决线性分类问题的常规步骤;复习了机器学习一些基本概念。机器学习:本周复习了神经网络代价函数和前向传播过程;学习了反向传播算法以及训练一个神经网络解决实际问题时的思想和具体步骤。PyTorch:除环境配置外,本周主要复习了机器学习中线性回归、逻辑回归、分类问题,用梯度下降法实现了回归问题的一个小demo

2020-07-10 17:04:36 119

原创 PyTorch自用笔记(第一周)

PyTorch 第一周一、深度学习初见1.1 深度学习框架简介1.1.1 PyTorch的发展1.1.2 PyTorch与同类框架一、深度学习初见1.1 深度学习框架简介1.1.1 PyTorch的发展2002年Torch->2011年Torch7Lua语言制约了Torch发展PyTorch于2018.12发布正式版本,采用CAFFE2后端本教程使用的是2019.5发布的1.11.1.2 PyTorch与同类框架Google:theano -> Tensorflow1 -&g

2020-07-10 16:46:44 148

原创 李飞飞计算机视觉-自用笔记(第一周)

李飞飞计算机视觉经典课程-自用笔记1 课程介绍-计算机视觉概述1.1 课程介绍-历史背景1.2 课程介绍-课程后勤2 图像分类-数据驱动方法2.1 图像分类-K最近邻算法2.2 图像分类-线性分类3 损失函数和优化介绍1 课程介绍-计算机视觉概述1.1 课程介绍-历史背景1.2 课程介绍-课程后勤2 图像分类-数据驱动方法2.1 图像分类-K最近邻算法2.2 图像分类-线性分类3 损失函数和优化介绍...

2020-07-10 08:25:08 349

原创 机器学习-吴恩达(第三周)

机器学习 第三周九、神经网络II9-1 代价函数9-2 反向传播算法9-3 理解反向传播九、神经网络II9-1 代价函数当用神经网络解决分类问题时,通常分为以下两种情况,二元分类和多元分类拟合神经网络参数的代价函数9-2 反向传播算法9-3 理解反向传播...

2020-07-09 10:27:50 136

原创 机器学习-吴恩达(第二周)

机器学习 第二周五、Octave5-1 基本操作5-2 移动数据5-3 计算数据5-4 数据绘制5-4 控制语句五、Octave5-1 基本操作%:注释~:!PS1(’>>’):隐藏版本信息:表示矩阵换行1:0.1:2表示从1到2,步长为0.1ones(2,3):生成一个2行3列矩阵,其元素均为1zeros(2,3):生成一个2行3列矩阵,其元素均为0rand(1,3):随机生成1行3列矩阵,元素值介于0和1之间randn(1,3):生成的随机变量服从高斯分布,均值为0,方

2020-07-03 16:51:38 314

原创 机器学习-吴恩达(第一周)

第二周 神经网络基础2.1 二分分类2.2 logistic回归2.3 回归损失函数2.4 梯度下降法2.1 二分分类1.RGB概念2.符号表示(x, y):x是n维特征向量,y∈{0,1}m是训练样本:{(x(1), y(1)),……}Mtrain训练集 Mtest测试集X = [x(1)……x(m)] (n * m)Y = [y(1)……y(m)] (1 * m)2.2 logistic回归Logistic Regression(逻辑斯蒂回归)y = wTx + b,如单纯用此公式

2020-06-26 11:07:26 212

原创 神经网络和深度学习-吴恩达(1)

第一周 深度学习概论1.2 什么是神经网络1.3 用神经网络进行监督学习1.4 为什么深度学习会兴起1.2 什么是神经网络举例:房价预测修正线性单元ReLU:rectified linear unit“修正”指的是取不小于0的值总结:x -> y1.3 用神经网络进行监督学习领域:预测、广告-SNN计算机视觉-CNN语音识别、语言-RNN自动驾驶结构化数据:数据库非结构化数据:音频、图像、单词1.4 为什么深度学习会兴起原因:数据多了提高神经网络性能:1.规模足够大

2020-06-23 09:49:13 95

原创 cv方向论文跟读笔记《Deep Learning》(2)

《Deep Learning》From 《Nature》author:Yann lecun, Yoshua bengio, Geoffery Hinton第二课时:CNN、基于CNN的图像理解1.卷积神经网络基础输入信号的维度:1D:序列和信号,包括语言信息等。2D:平面图像、声音频谱图等。3D:视频信号、立体图像等。卷积神经网络的关键:1.信号的局部连接;2.共享权重;3...

2020-04-28 20:04:28 209

原创 cv方向论文跟读笔记《Deep Learning》(1)

《Deep Learning》From 《Nature》author:Yann lecun, Yoshua bengio, Geoffery Hinton第一课时:背景、监督学习、反向传播1.论文作者简介2018年图灵奖获得者GH:谷歌副总裁;反向传播论文YL:Facebook副总裁;发明了卷积神经网络;首次将卷积神经网络用于手写数字识别YB:2.前期知识储备线性代数、概率论、...

2020-04-28 11:40:49 218

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除