![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 81
STU_11wxzou
志存高远,虚怀若谷。
展开
-
Darknet 训练yolov4模型,做图像自动标注(代码)
基于darknet框架训练yolov4模型,获取推理结果的bbox信息,导出xml标注文件,实现图像的自动标注,方便图像标注。1. Darknet 安装按照官网https://pjreddie.com/darknet/ 的指引安装即可。报错与解决:(1)使用GPU时,修改makefile GPU=1 cudnn=1,make报错darknet make include/darknet.h:16:23: 致命错误:cudnn.h找到cudnn.h复制到/usr/include下,我的cud原创 2020-11-13 15:55:32 · 1105 阅读 · 2 评论 -
FasterRCNN 理解(精简版总结)
先简单介绍下RCNN和Fast RCNNRCNN:1. 流程(1). 采用传统方法Selective Search产生目标候选框(2). 对每个候选框,用深度卷积神经网络提取特征得到feature map(3). 每个框得到的feature map喂给SVM分类器,并通过线性回归调整bounding box的位置和大小,使得更接近 gt2. 缺点:(1)CNN网络参数不共享(2)采用SVM分类器,速度慢(3)产生后选框ROI的大小不一样,这样导致CNN输出与FC维度不统一原创 2020-06-28 16:39:56 · 10140 阅读 · 0 评论 -
Batch Norm的作用
BN做的是归一化某一层隐层的激活单元,使得下一层参数的训练更加快。做法:给定神经网络中间隐层的值,假设某一层所有的隐层单元为1. 计算均值:2. 计算方差:3.4. (所以)5. 用代替代替未完待续……...原创 2020-06-03 16:56:07 · 501 阅读 · 0 评论 -
机器学习中的偏差、方差、过拟合
一、机器学习的偏差与方差的理解1. 方差大:训练集的误差小,验证集误差大,对应模型过拟合2. 偏差大:如果训练集和验证集的误差接近,且都偏大,说明模型效果差,欠拟合3. 偏差小、方差小:训练集和验证集误差差不多,都比较小,说明模型效果好偏差与方差对应的解决方法:1. 高偏差(无法拟合训练数据):换一个更大的模型或网络,模型训练久一点2. 高方差(过拟合):增大数据集,正则化理解模型的偏差和方差,可以判断模型的表现,进而采取相应的措施,达到更好的效果。二、过拟...原创 2020-06-01 10:54:34 · 2932 阅读 · 0 评论 -
DL、ML算法面试题记录
1、利用梯度下降法训练神经网络,发现模型Loss不变,可能有哪些问题?怎么解决?2、如何解决不平衡数据集的分类问题?smote算法的弊端?3、残差网络为什么能实现更深层?4、卷积神经网络中空洞卷积的作用是什么?5、卷积神经网络感受野的概念?6、模型欠拟合什么时候会出现?有什么解决方案?7、适用于移动端部署的网络结构有哪些?8、卷积神经网络中im2col是如何实现的?9、多任务学习中标签缺失如何处理?10、梯度爆炸的解决方法?11、深度学习模型参数初始化都有什么方法?原创 2020-05-31 21:36:10 · 234 阅读 · 0 评论 -
语音的风格迁移
摘要语音的风格迁移,是指将某一说话者的音色、副语言(情绪及语调)等特点赋予到合成的语音中。例如,合成一段语音,具备央视主持人康辉的声音特点。而在计算机视觉领域中,由于深度卷积网络对图像具有良好的特征提取能力,因此图像的风格迁移得到令人印象深刻的结果。本文对语音的...原创 2020-04-23 15:53:40 · 3993 阅读 · 0 评论 -
SVM与LR的异同点
相同点:(1)都是监督学习算法(2)都是分类算法,都是判别模型 P(x|y)(3)若SVM不考虑核函数,都是线性分类算法,决策面是线性的不同点:(1)测度不同,SVM是距离测度,基于几何间隔最大化作为度量原则;LR是概率测度,计算样本概率,用极大似然估计计算参数。因此,二者的loss function不同(2)样本点对分类决策面的影响不同。SVM只有支持向量的样本(局部边界...原创 2020-04-13 22:19:27 · 256 阅读 · 0 评论 -
L1 和 L2正则化的区别,在机器学习中如何选择
L1范数的定义L1范数是指向量中各个元素绝对值之和L1正则带L1正则项的cost function:用L1正则得到的参数稀疏,有很多0。用一个图例解释下。假设一个二维样本,求解二维参数W(w1,w2),如果没有正则项,对于线性回归的目标函数来说,最优解再最里面的紫色圆圈的等高线上。加入L1正则项,|w1| + |w2| =F,即下图的菱形,现在不仅希望目标函数越小越好,且希...原创 2020-04-11 16:01:11 · 2919 阅读 · 0 评论 -
PCA算法人脸识别小结--原理到实现
近段时间学习提取图像特征的算法,研究了一下PCA(主成分分析)算法,用PCA实现了人脸识别,做个小结。以下是关于PCA算法原理理解较有帮助的资料(关于PCA的资料很多,我觉得看以下的足够了):1、A tutorial on Principal Components Analysis,Lindsay I Smith,February 26, 20022、A Tutorial on Pr原创 2015-03-16 16:05:58 · 8339 阅读 · 0 评论