CV学习分享
日常CV论文和复现过程的分享
aqwy1996822
这个作者很懒,什么都没留下…
展开
-
2021-11-08 Python欧拉角 四元数 旋转矩阵 旋转向量 齐次矩阵 转换与齐次矩阵求逆
from scipy.spatial.transform import Rotation as Rimport numpy as npimport math# Checks if a matrix is a valid rotation matrix.def isRotationMatrix(R): Rt = np.transpose(R) shouldBeIdentity = np.dot(Rt, R) I = np.identity(3, dtype=R.dtype.原创 2021-11-08 00:55:04 · 1641 阅读 · 1 评论 -
2021-09-26 相机模型下SLAM OPENCV MATLAB间格式转换
各类参数介绍SLAM有fx,fy,cx,cy,k1,k2,k3,p1,p2,resolution_height,resolution_widthMATLAB有FocalLength,PrincipalPoint,RadialDistortion,TangentialDistortion,IntrinsicMatrixOPENCVcalibrateCamera函数的返回值有ret, mtx, dist, rvecs, tvecsmtx为内参矩阵dist为畸变参数SLAM与MATLAB的转原创 2021-09-26 21:45:26 · 184 阅读 · 0 评论 -
2021-08-03 labelme制作全景分割数据集 批量Json转png的方法
labelme可执行程序和json_to_datasets可执行程序可自己编译或下载发邮件到aqwy1996822@163.com索取制作全景分割数据集利用图层上覆盖下的特性,画出全景分割数据集先画天空,覆盖整个画面,再画自然风光,覆盖天空外的所有区域,以此类推批量Json转pngjson_to_dataset.exe放到json所在的上一级目录下,与json所在文件夹同级运行json_to_dataset.exe 文件夹名即可批量转换json到png...原创 2021-08-03 21:42:51 · 853 阅读 · 3 评论 -
2021-05-21 SEGNET重点
介绍来自剑桥大学语义分割模型结构采用编码器解码器结构,后跟像素分类层解码器的上采样做法不需要学习,减少学习的参数数量,这种做法在任何一个编码解码器形式的网络中都可以使用抛弃FCN层和FCN网络相比,使用unpool 而FCN使用deconv使用BATH NORMAIZE和RELU优化器SGDBATH NOMAIZE位于Y = weight*X+Bias之后,激活函数(非线性函数)变换之前,对Y进行标准化编码器解码器编码器结构:编码器部分主要由普通卷积层原创 2021-05-21 21:39:26 · 165 阅读 · 0 评论 -
2021-05-21 RESNET重点
介绍何恺明大神152层网络的RESNET在IMAGENET中获得3%的误差。提出了残差映射,通过跳跃连接进行残差学习,解决了梯度消失的问题,学习H(x)-x比学习H(x)更简单在设计很深的残差网络中,可以使用bottle neck,谨慎使用,会导致模型退化影响指出,深度神经网络很难训练,会出现以下问题梯度消失和梯度爆炸——正则化可以解决模型退化——?网络加深后,训练效果好得明显利用残差学习,使得深度网络的训练不再特别困难...原创 2021-05-21 19:40:09 · 109 阅读 · 0 评论 -
2021-05-21 GOOGLENET重点
介绍与VGG同年,参数量远少于VGG模型结构inception多种卷积核22层创新点多种卷积核共同使用提高计算效率1X1卷积核降低计算维度,比如192转到96,图像大小不变中间输出计算LOSS防止梯度爆炸...原创 2021-05-21 19:08:32 · 102 阅读 · 0 评论 -
2021-5-20 VGGNET重点
介绍2014年诞生,与GOOGLENET同年VGG16被广泛使用与各个领域结构3X3小卷积核小卷积步长(可以使参数量减少)训练技巧优化器为具有动量衰减的SGD多尺度图片进行训练和测试在测试中把FC层替换为1X1的卷积层1X1卷积层在RESNET中用于减少维度在mobilenet中用于扩增维度在测试中可以接受任意维度的图片(我认为这与在全连接层前做resize没有什么区别)影响证明LRN没用感受野大小概念引入...原创 2021-05-20 19:44:02 · 74 阅读 · 0 评论 -
2021-05-20 神经网络训练微调策略
微调(Fine-Tuning)迁移学习策略取决于多种因素,但最重要的两个是新数据集的大小以及新数据集与原数据集的相似度。以下是4个主要情景新数据集量小,内容上相似这种情况下,通常情况我们只需要训练最后的输出层,即最后一层,因为可能分类的数量不同,最后一层需要做修改。(平时最常见)新数据集量大,内容上相似这是最理想的情况,我们可以微调整个网络,因为数据量足够大不用担心过拟合。新数据集量小,内容不相同由于数据较小,且相似度低,这种情况使用微调效果不是很好,可以尝试冻结前边大部卷积层.原创 2021-05-20 19:36:33 · 608 阅读 · 0 评论 -
2021-5-20 ALEXNET重点
介绍2012年诞生第一个深度学习 分类网络结构5卷积层3全连接层reluLRN局部响应归一化(类似于神经中的侧抑制)(被VGG证明没啥用)Overlapping Poolingsoftmax训练技巧交叉熵损失函数随机裁剪缩放、翻转droupout(训练时依概率使一部分神经元失活,训练时结果乘以失活概率)...原创 2021-05-20 17:54:29 · 69 阅读 · 0 评论