![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cv
文章平均质量分 84
易小侠
可订制毕业设计。
免责声明:资料部分来源于合法的互联网渠道收集和整理,部分自己学习积累成果,供大家学习参考与交流。收取的费用仅用于收集和整理资料耗费时间的酬劳。 本人尊重原创作者或出版方,资料版权归原作者或出版方所有,本人不对所涉及的版权问题或内容负法律责任。如有侵权,请举报或通知本人删除。
展开
-
opencv-yolo-tiny车辆检测
opencv.dnn模块已经支持大部分格式的深度学习模型推理,该模块可以直接加载tensorflow、darknet、pytorch等常见深度学习框架训练出来的模型,并运行推理得到模型输出结果。opecnv.dnn模块已经作为一种模型部署方式,应用在工业落地实际场景中。模型具体加载和使用流程如下:1、加载网络,读取模型、网络结构配置等文件2、创建输入,opencv.dnn模块对图片输入有特殊格式要求3、运行推理4、解析输出5、应用输出、显示输出下面是opencv.dnn模块加原创 2022-01-20 15:18:44 · 2588 阅读 · 3 评论 -
使用Python+OpenCV实现姿态估计
姿态估计使用Opencv+Mediapipe来时实现什么是Mediapipe?Mediapipe是主要用于构建多模式音频,视频或任何时间序列数据的框架。借助MediaPipe框架,可以构建令人印象深刻的ML管道,例如TensorFlow,TFLite等推理模型以及媒体处理功能。安装命令:pip install mediapipe如果没有安装需要安装,请执行这个命令。通过视频或实时馈送进行人体姿态估计在诸如全身手势控制,量化体育锻炼和手语识别等各个领域中发挥着至关重要的作用。例如,原创 2022-01-20 15:05:02 · 3580 阅读 · 0 评论 -
计算机视觉面试宝典--文本检测与GAN篇
计算机视觉面试宝典–文本检测与GAN篇1.LSTM(长短期记忆)原理,其中的参数是否相同/画出LSTM的结构图/写一下LSTM的公式Lstm由输入门,遗忘门,输出门和一个cell组成。第一步是决定从cell状态中丢弃什么信息,然后在决定有多少新的信息进入到cell状态中,最终基于目前的cell状态决定输出什么样的信息。i=σ(Wiix+bii+Whih+bhi)f=σ(Wifx+bif+Whfh+bhf)g=tanh(Wigx+big+Whgh+bhg)o=σ(Wiox+bio+Whoh+bho)c原创 2022-01-17 08:39:53 · 1716 阅读 · 1 评论 -
计算机视觉面试宝典--语义分割篇
计算机面试宝典–语义分割篇一.deeplab系列1.简述Deeplab v1网络DeepLab是结合了深度卷积神经网络(DCNNs)和概率图模型(DenseCRFs)的方法。在实验中发现DCNNs做语义分割时精准度不够的问题,根本原因是DCNNs的高级特征的平移不变性(即高层次特征映射,根源在于重复的池化和下采样)。针对信号下采样或池化降低分辨率,DeepLab是采用的atrous(带孔)算法扩展感受野,获取更多的上下文信息。另外,DeepLab 采用完全连接的条件随机场(CRF)提高模型捕获细节的能原创 2022-01-16 11:01:55 · 1454 阅读 · 1 评论 -
计算机视觉面试宝典--C、Python与算法篇
计算机视觉面试宝典–C、Python与算法篇算法1.数组和链表的区别数组是将元素在内存中连续存放,由于每个元素占用内存相同,可以通过下标迅速访问数组中任何元素。链表是一种上一个元素的引用指向下一个元素的存储结构,链表通过指针来连接元素与元素;(1)数组是连续存储的,链表是散列存储的。数组随机访问性强(通过下标进行快速定位),所以数组的查询比链表要快,链表不能随机查找,必须从第一个开始遍历,查找效率低。 (2)数组插入和删除效率低(插入和删除需要移动数据),链表插入删除速度快(因为有next指针指向原创 2022-01-15 08:57:25 · 1008 阅读 · 1 评论 -
机器视觉面试宝典--深度学习补缺补漏篇
机器视觉面试宝典–深度学习补缺补漏篇一、深入理解Batch Normalization批标准化机器学习领域有个很重要的假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在原创 2022-01-14 08:34:57 · 745 阅读 · 1 评论 -
计算机视觉面试宝典--深度学习机器学习基础篇(四)
计算机视觉面试宝典–深度学习机器学习基础篇(四)本篇主要包含SVM支持向量机、K-Means均值以及机器学习相关常考内容等相关面试经验。SVM—支持向量机支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。SVM的的学习算法就是原创 2022-01-13 08:41:44 · 1199 阅读 · 0 评论 -
计算机视觉面试宝典--深度学习机器学习基础篇(三)
计算机视觉面试宝典–深度学习机器学习基础篇(三)本篇主要包含数据类问题、正则化、激活函数与梯度以及回归等相关面试经验。数据类问题1.样本不平衡的处理方法①欠采样 - 随机删除观测数量足够多的类,使得两个类别间的相对比例是显著的。虽然这种方法使用起来非常简单,但很有可能被我们删除了的数据包含着预测类的重要信息。②过采样 - 对于不平衡的类别,我们使用拷贝现有样本的方法随机增加观测数量。理想情况下这种方法给了我们足够的样本数,但过采样可能导致过拟合训练数据。③合成采样( SMOTE )-该技术要求我原创 2022-01-12 09:28:41 · 627 阅读 · 1 评论 -
计算机视觉面试宝典--深度学习机器学习基础篇(二)
计算机视觉面试宝典–深度学习机器学习基础篇(二)本篇主要包含Batch Normalization、基础卷积神经网络以及损失函数相关面试经验。一、Batch Normalization**1.批标准化(Batch Normalization)**可以理解为是一种数据预处理技术,使得每层网络的输入都服从(0,1)0均值,1方差分布,如果不进行BN,那么每次输入的数据分布不一致,网络训练精度自然也受影响。前向公式:前向传播代码def batchnorm_forward(x, gamma, beta,原创 2022-01-11 08:35:50 · 756 阅读 · 0 评论 -
计算机视觉面试宝典--深度学习机器学习基础篇(一)
CV总复习–深度学习机器学习基础篇(一)优化算法深度学习优化学习方法(一阶、二阶)一阶方法:随机梯度下降(SGD)、动量(Momentum)、牛顿动量法(Nesterov动量)、AdaGrad(自适应梯度)、RMSProp(均方差传播)、Adam、Nadam。二阶方法:牛顿法、拟牛顿法、共轭梯度法(CG)、BFGS、L-BFGS。自适应优化算法有哪些?(Adagrad(累积梯度平方)、RMSProp(累积梯度平方的滑动平均)、Adam(带动量的RMSProp,即同时使用梯度的一、二阶矩))。**原创 2022-01-10 08:57:29 · 384 阅读 · 0 评论 -
计算机视觉面试宝典--目标检测篇(二)
计算机视觉面试宝典–目标检测篇(二)综合问题1.简要阐述一下One-Stage、Two-Stage模型One-Stage检测算法,没有selective search产生region proposal的阶段,直接产生物体的类别概率和位置坐标,经过单次检测即可直接获得最终的检测结果。相比Two-Stage有更快的速度。代表网络有YOLO v1/v2/v3/9000,SSD,Retina-Net. (two-stage算法中的roi pooling会对目标做resize, 小目标的特征被放大,其特征轮廓也原创 2022-01-09 12:23:17 · 2718 阅读 · 2 评论 -
计算机视觉面试宝典--目标检测篇(一)
计算机视觉面试宝典–目标检测篇(一)Faster-Rcnn网络1.faster RCNN原理介绍,要详细画出图 Faster R-CNN是一种两阶段(two-stage)方法,它提出的RPN网络取代了选择性搜索(Selective search)算法后使检测任务可以由神经网络端到端地完成。在结构上,Faster RCNN将特征抽取(feature extraction),候选区域提取(Region proposal提取),边框回归(bounding box regression),分类原创 2022-01-08 10:02:42 · 2829 阅读 · 1 评论 -
计算机视觉面试宝典--计算机基础与手撕代码篇
计算机视觉面试宝典–计算机基础与手撕代码篇操作系统1.线程和进程的区别?**进程:**是执行中一段程序,即一旦程序被载入到内存中并准备执行,它就是一个进程。进程是表示资源分配的基本概念,又是调度运行的基本单位,是系统中的并发执行的单位。进程是程序的一次执行过程,是一个动态概念,是程序在执行过程中分配和管理资源的基本单位,每一个进程都有一个自己的地址空间,至少有 5 种基本状态,它们是:初始态,执行态,等待状态,就绪状态,终止状态。线程:单个进程中执行中每个任务就是一个线程。线程是进程中执行运算的最原创 2022-01-07 11:15:57 · 2788 阅读 · 3 评论 -
计算机视觉面试宝典--传统图像处理篇
计算机视觉–传统图像处理篇图像滤波图像滤波:在尽量保留图像细节特征的条件下对目标图像的噪声进行抑制。平滑:也称模糊, 是一项简单且使用频率很高的图像处理方法。平滑的一种作用就是用来减弱噪声。1.列出常见的线性滤波器低通滤波器 允许低频通过高通滤波器 允许高频通过带通滤波器 允许一定范围的频率通过带阻滤波器 允许一定范围的频率通过并阻止其他的频率通过全通滤波器 允许所有频率通过,只改变相位陷波滤波器 阻止一个狭窄频率范围通过2.线性滤波与非线性滤波线性滤波:方框滤波 均值滤波 高斯滤波原创 2021-10-22 15:22:08 · 4486 阅读 · 0 评论 -
机器视觉--深度学习
机器视觉–深度学习一、深入理解Batch Normalization批标准化机器学习领域有个很重要的假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布原创 2021-09-27 09:00:12 · 1267 阅读 · 0 评论