计算机视觉
文章平均质量分 74
计算机视觉
西西先生666
这个作者很懒,什么都没留下…
展开
-
深度学习之BatchNorm和LayerNorm
BatchNorm和BatchNorm区别原创 2022-10-17 09:58:29 · 320 阅读 · 0 评论 -
计算机视觉之-ImageNet、Alexnet、VGGNet、RestNet模型结构
计算机视觉之-RestNet、GoogleNet、VGG模型结构一级目录二级目录三级目录一级目录二级目录三级目录原创 2022-05-16 17:11:05 · 1723 阅读 · 0 评论 -
计算机视觉之RCNN, Fast RCNN, Faster RCNN, Mask RCNN目标检测
计算机视觉之R-CNN, Fast R-CNN, Faster R-CNN目标检测一、目标检测1.1 概念1.2 定位+分类1.3 目标检测1.4 R-CNN(Region-CNN)1.5 Fast R-CNN1.5.1 R-CNN缺点1.5.2 SPP Net (Spatial Pyramid Pooling空间金字塔池化)1.5.3 Fast R-CNN原理1.6 Faster R-CNN1.6.1 Fast R-CNN缺点1.6.2 RPN网络原理1.6.3 Faster R-CNN原理1.7 总结各原创 2022-05-11 20:28:19 · 506 阅读 · 0 评论 -
pytorch实现:Resnet模型识别花朵数据集(参考pytorch官网代码)
代码参考pytorch官网代码写法,包含模型保存、模型加载原创 2022-04-28 17:10:51 · 5560 阅读 · 3 评论 -
opencv常用函数整理
opencv常用函数整理一、常见函数整理1.1 cv2.resize函数(图像size重定义)1.2 cv2.getStructuringElement函数(构造卷积核)一、常见函数整理1.1 cv2.resize函数(图像size重定义)cv2.resize(InputArray src, OutputArray dst, Size, fx, fy, interpolation)"""参数解释:InputArray src 输入图片OutputArray dst 输出图片Size 输出图片原创 2022-04-07 11:32:44 · 3975 阅读 · 0 评论 -
计算机视觉之opencv基本用法
计算机视觉之opencv一、opencv安装二、opencv图像数据预处理2.1 数据读取-图像(cv2.imread函数)2.2 数据存储-图像(cv2.imwrite函数)2.3 数据读取-视频(cv2.VideoCapture函数)2.4 截取部分图像数据(索引操作)2.5 颜色通道读取(cv2.split函数)2.6 颜色通道合并(cv2.merge函数)2.7 边界填充(cv2.copyMakeBorder函数)2.8 数值计算(cv2.add函数和+运算)2.9 图像融合(+运算)2.10 图像原创 2022-04-01 17:31:24 · 5098 阅读 · 0 评论 -
模型微调技术
模型微调一、迁移学习中的常见技巧:微调(fine-tuning)1.1 概念1.2 步骤1.3 训练1.4 实现一、迁移学习中的常见技巧:微调(fine-tuning)1.1 概念将在大数据集上训练得到的weights作为特定任务(小数据集)的初始化权重,重新训练该网络(根据需要,修改全连接层输出);至于训练的方式可以是:1.微调所有层;2.固定网络前面几层权重,只微调网络的后面几层,这样做有两个原因:A. 避免因数据量小造成过拟合现象;B.CNN前几层的特征中包含更多的一般特征(比如,边缘信息原创 2022-02-21 17:30:59 · 4133 阅读 · 1 评论 -
计算机视觉之pytorch图片数据转换、增广、增强及多GPU训练
计算机视觉之pytorch图片数据转换、增广及多GPU训练一、数据增强1.1 图片数据增强方式二、代码实现2.1 水平方向随机翻转torchvision.transforms.RandomHorizontalFlip()函数2.2 垂直方向随机翻转torchvision.transforms.RandomVerticalFlip()函数2.3 随机剪裁torchvision.transforms.RandomResizedCrop()函数2.4 中心裁剪torchvision.transforms.Cent原创 2022-02-15 17:28:29 · 3394 阅读 · 0 评论 -
深度学习之参数优化算法
深度学习之优化算法1、GD:Gradient Descent, 梯度下降法1.1 原理1.2 梯度下降法的几种形式2、Adam3、AdaGrad4、Momentum5、RMSProp1、GD:Gradient Descent, 梯度下降法1.1 原理梯度下降学习的目标通常是最小化机器学习问题的损失函数,寻找全局最优值。基本的梯度下降算法遵循的思想是,梯度的相反方向指向较低的区域。所以它在梯度的相反方向迭代。对于参数θ\thetaθ,它做如下操作:Δ=−learning_rate∗gra原创 2021-05-21 15:45:16 · 2010 阅读 · 0 评论 -
pytorch实现:卷积神经网络识别FashionMNIST
卷积神经网络识别FashionMNIST之pytorch一、导入需要的包二、图像数据准备三、卷积神经网络搭建四、卷积神经网络训练与预测一、导入需要的包对于moduleNotFoundError: No module named ‘pandas’等情况发生时,需要在Anaconda Prompt下进入pytorch(activate pytorch)环境,然后conda install pandas即可。(采用pip安装会报错,但也可以尝试)import pandas as pdimport nump原创 2021-05-01 18:43:11 · 1682 阅读 · 0 评论 -
pytorch实现:对预训练好的卷积网络微调
pytorch实现:对预训练好的卷积网络微调一、导入所需的包二、微调预训练的VGG16网络三、准备新网络需要的数据四、微调网络的训练和预测由于卷积神经网络层数多,训练参数较多,导致从0开始训练很深的卷积网络非常困难,所以我们可以对预训练好的模型参数进行微调,快速实现自己的任务。pytorch提供ImageNet数据集与预训练好的流行的深度学习网络。本文使用VGG16网络,对网络结构和参数进行微调。数据集来自kaggle:https://www.kaggle.com/slothkong/10-monkey原创 2021-05-02 20:59:04 · 1255 阅读 · 1 评论