自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 资源 (2)
  • 收藏
  • 关注

原创 记录需要用到的一些小包

...

2022-08-09 16:54:15 232 1

原创 安装ffmpeg带264

.

2022-07-25 10:58:22 259

原创 linux安装pyav,不用ffmpeg

安装pyav

2022-07-21 13:33:24 1136

原创 3060安装pytorch1.7.1

3060安装pytorch1.7.1只要有显卡驱动,直接使用conda安装就行了,不需要手动去下cudnn只要有显卡驱动,直接使用conda安装就行了,不需要手动去下cudnn#添加Anaconda的清华镜像conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/conda config --add channels https://mirrors.tuna.tsinghua.edu.

2022-01-22 13:50:54 927

原创 常见机器学习文章大全 - 2021面试准备

常见机器学习文章大全前言一、线性回归二、逻辑回归三、SVM四、决策树五、随机森林六、提升树七、GBDT八、XGBoost九、KNN十、K-means十一、贝叶斯十二、LDA和PCA十三、其他前言收藏一下各个模型写得比较好的文章,到时候通过这个入口方便查看一、线性回归机器学习算法——线性回归(超级详细且通俗)线性回归相关面试题二、逻辑回归逻辑回归 - 理论篇逻辑回归和神经网络权重初始化为0的问题逻辑回归(logistics regression)三、SVM【ML】支持向量机(

2021-09-29 11:05:55 166

原创 目标检测文章大全 - 2021面试准备

目标检测文章大全前言一、Tow Stage1、RCNN2、Fast RCNN3、Faster RCNN二、One Stage1、SSD2、YOLO V23、YOLO V34、YOLO V45、YOLO V56、Retina Net三、Anchor Free1、YOLO V12、Corner Net3、Center Net4、ATSS-- anchor free与anchor base区别5、FCOS6、YOLO X四、Transform1、DETR2、Deformable DETR五、IOU六、其他前言

2021-08-26 16:55:30 274 1

原创 学习率知识点

学习率知识点学习率知识点学习率调整方法warm up学习率的影响学习率知识点学习率调整方法通常一开始的学习率很大,后期的学习率变小,需要调整学习率。1)等间隔调整学习率每隔一定的间隔,就按系数减小2)多个间隔调整学习率自己设置需要调整的间隔,各间隔的系数3)按指数衰减学习率γ是指数的底,通常设置为接近1的数,注意,是每个epoch都乘以γ的指数。4)余弦周期调整学习率T_max 是下降周期,经过该个周期,学习率从最大下降到最小,再经过该个周期,又上升到最大warm upwar

2021-08-20 21:01:56 387

原创 优化函数知识点

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档优化函数优化函数BGD批量梯度下降法SGD随机梯度下降法mini-BGD小批次梯度下降法使用梯度下降及其变体时面临的挑战momentum动量梯度下降法NAG(Nesterov accelerated gradient)自适应学习率优化算法AdaGradRMSProp(均方差传播)Adam综合batch_size的影响在合理范围内,增大Batch_Size有何好处?盲目增大 Batch_Size 有何坏处?优化函数优化算法分为两大类1

2021-08-20 20:59:10 606

原创 Dropout

DropoutDropout目的方法这样是否改变了输出的分布?怎么解决的?那dropout为什么能缓解过拟合?可以换一个角度解释吗?一般dropout中的超参数p选为多少?为什么?dropout还有什么作用?dropout有什么缺点?为什么很多人觉得BN层可以取代dropout?Dropout目的减少特征检测器(隐层节点)间的相互作用,检测器相互作用是指某些检测器依赖其他检测器才能发挥作用方法以概率p来失活(pytorch)部分神经元,只用在训练时,测试时全部神经元都要使用,不会太依赖某些局部

2021-08-20 20:43:49 291

原创 归一化和标准化

归一化和标准化归一化和标准化归一化标准化Batch Normalization原理步骤训练与测试时的区别优点缺点注意BN与Dropout影响各种标准化区别归一化和标准化最小最大归一化(减最小值,除最大最小的差值)和均值方差归一化(减均值,除方差)作用1)统一量纲,加快模型收敛速度,(不做归一化,梯度下降时,各数据对模型的贡献不一致,导致模型不稳定,收敛性不好,错过最优解)2)提高模型精度归一化一般用于线性模型适用范围:对输出结果范围有要求的,数据较为稳定,不存在极端的最大最小值缺点:当

2021-08-20 20:40:07 679

原创 L1、L2正则化

L1、L2正则化L1、L2正则化L1、L2正则化正则化:在优化目标函数时,在目标函数后添加的一个惩罚作用1)防止过拟合;2)提高模型泛化能力;3)限制模型的复杂度,使得模型在复杂度和性能达到平衡从等值线的角度解释,如果只有两个参数w1、w2。L1表示的w有效区域是一个菱形。损失函数(假设为平方和)的等值线则表示为椭圆。L2表示为圆形。等值线与L1相交时,很容易位于菱形顶点,即w1等于0或者w2等于0(产生稀疏矩阵)。与L2相交则在圆上任意一点,所以不具备稀疏性。L1正则:α乘以绝对值

2021-08-20 20:30:43 312

原创 梯度消失和梯度爆炸

梯度消失和梯度爆炸梯度消失和梯度爆炸梯度消失和梯度爆炸梯度爆炸:在反向传播过程中需要对激活函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加,最后到输入时,梯度将会非常大,这就是梯度爆炸。梯度消失:同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少,最后到输入时,梯度将会非常小,这就是梯度消失。因此,根本原因在于反向传播训练法则,属于先天不足。解决方案1)好的参数初始化方式;2)非饱和的激活函数;3)BN批量规范化(可以将集中

2021-08-20 20:19:44 113

原创 Loss异常

Loss异常Loss异常loss下降本来平稳,突然出现波动出现NaNLoss一直不下降Loss异常loss下降本来平稳,突然出现波动可能是label出现错误,本来预测正确,却判断为错误,就会出现波动解决:1)在loss不再下降的时候降低学习率;2)每个epoch训练之前,对数据进行重新打乱,如果你的 batch 的内容和顺序都是固定的,可能造成模型overfit这个顺序;3)各个 batch 的 loss 有不同是正常的,但如果波动太大,可能说明你的各个 batch 不是 homogeneo

2021-08-20 20:18:07 372

原创 过拟合与欠拟合

过拟合与欠拟合过拟合与欠拟合过拟合欠拟合过拟合与欠拟合过拟合概念:过拟合是模型参数在拟合过程中出现的问题,由于训练数据包含抽样误差,训练时复杂的模型将抽样误差也考虑在内,将抽样误差也进行了很好的拟合。具体表现:模型在训练集上效果好,在测试集上效果差,即模型泛化能力弱。产生过拟合根本原因:观察值与真实值存在偏差训练样本的获取,本身就是一种抽样,抽样操作就会存在误差,导致选取的样本数据不足以代表预定的分类规则。训练数据太少,导致无法描述问题的真实分布通俗地说,重复实验多次,随机事件的频率近

2021-08-20 20:14:13 218

原创 激活函数知识点

激活函数激活函数知识点激活函数作用SigmoidTanhReLuLeaky ReLuReLU6ELU激活函数知识点激活函数作用如果不用激活函数,每一层输出都是上一层的线性函数,就变成了线性模型,表达能力不够。如果引入非线性激活函数的话,加入了非线性因素,神经网络就有意义了,能够去逼近任意函数。Sigmoidg(x)=11+e−xg(x)=\frac{1}{1+e^{-x}}g(x)=1+e−x1​优点:提供非线性能力、可以作为输出层,输出概率值,处处连续,便于求导,压缩数据到(0,1)。缺

2021-08-20 20:08:37 375

原创 池化知识点

池化池化知识点1.池化的作用2.池化的分类3.池化的反向传播4.全局平均池化5.空间金字塔池化池化知识点1.池化的作用下采样引入非线性因素特征减小、保留主要的特征,减少参数和计算量,达到降维的效果防止过拟合扩大感受野实现平移旋转不变性2.池化的分类最大池化、平均池化、全局平均池化、金字塔池化,、全局加权池化(分组卷积提到)特征提取的误差主要来自两个方面:(1)邻域大小受限造成的估计值方差增大;(2)卷积层参数误差造成估计均值的偏移。平均池化能减小第一种误差(方差增大),更多的

2021-08-19 23:09:13 695

原创 卷积知识点

卷积卷积知识点1.什么是卷积2.卷积的特点3.卷积和全连接的区别4.卷积的计算5.感受野6.反卷积(转置卷积)7.空洞卷积8.空间可分离卷积9.深度可分离卷积10.分组卷积11.可变形卷积12. 1*1卷积13. 3D卷积卷积知识点参考文献找不到了,略1.什么是卷积对图像和滤波矩阵(滤波器、卷积核)做内积的操作就是卷积。单次卷积操作就是对应位置的两个元素相乘,之后所有乘积相加。像滑动窗口一样进行。卷积其实在图像处理领域被广泛的应用,像滤波、边缘检测、图片锐化等,都是通过不同的卷积核来实现的。在卷

2021-08-19 22:54:22 1895

原创 Focal Loss 与 Progressive Focal Loss的pytorch实现

Focal Loss的pytorch实现介绍代码介绍介绍很多,大家随便搜搜吧,这里就不介绍了主要网上很多focal loss的代码只有二分类,而且写得看上去就很复杂,我参考了忘记哪个作者的了,修改了一下,加了注释,简洁了很多代码class FocalLoss(nn.Module): def __init__(self, class_num=2, alpha=None, gamma=2): super(FocalLoss, self).__init__() i

2021-08-16 15:14:02 312 7

原创 C++实现多项式拟合

C++实现多项式拟合配置GSL库跟着这篇文章来操作进行, win10下给VS2017配置GSL库.如果你的电脑没有 vs 的命令行的话,生成不了lib文件,我上传了已经生成好了的,只需要 2 积分链接: gsl_lib.zip.多项式拟合的代码下面是代码,修改 x、y、len 和 poly_n 直接运行即可#include<iostream>#include<vector>#include <gsl/gsl_fit.h>#include <gsl

2021-01-29 09:30:33 3765 2

原创 pytorch实现交叉验证

pytorch实现交叉验证一般的交叉验证是对神经网络回归分类的代码我这里是针对图像分类来的,对于目标检测这些的话,把对应读取数据的函数修改一下就行了实现交叉验证的Datasetimport torchimport torch.nn as nnfrom torch.utils.data.dataset import *from PIL import Imagefrom torch.nn import functional as Fimport randomclass KZDataset(

2020-12-21 20:19:43 7999 8

原创 pytorch CAM得到热力图

pytorch CAM得到热力图用法根据网上的代码改成自己的模型的,并且改成了对整个文件夹的图片挨个生成直接复制代码就行了,不用去下载包修改main函数里的东西就行了,注释了下面这图是我自己的,看上去这个热力图跟我预想的网络重点不一样,专注背景去了的代码# simple implementation of CAM in PyTorch for the networks such as ResNet, DenseNet, SqueezeNet, Inceptionimport ioimpo

2020-12-16 18:55:37 3938 33

原创 Expression: __acrt_first_block == header 的解决方案

Expression: __acrt_first_block == header 的解决方案问题描述我出现这个问题在特征点检测 detectAndCompute() 函数这里,由于输出的矩阵dst为空, match() 函数就报错了。本来加了一个判断dst 是否为空,为空就跳出当前循环。结果跳出之后就报了 Expression: __acrt_first_block == header 这个错。解决方案搜了很大半天,有说vs和opencv不匹配的,但我这个明显不是。另外就是内存原因了,我debu

2020-12-15 17:09:46 2498

原创 配置openni2

配置openni2硬件安装,略配置解决方案下载并解压openni2的包在VS里配置环境,Redist、include、lib右键项目属性Configuration Properties,C/C++,Gerenal中Inculde Directories ,添加openni2的include路径Linker,Gerenal 中的Additiaonal Library Directories 中,添加lib路径Additiaonal Dependencies中,添加Redist文件夹路径

2020-11-30 21:50:27 304 1

原创 cmake配置opencv_contrib, 下载出错的解决方案

cmake配置opencv_contrib, 下载出错的解决方案搞了一下午,最开始想下载别人的,又怕版本不匹配,而且全部都要积分,所以还是自己解决吧参考的博客链接: 使用CMake进行OpenCV(含Contrib)环境搭建,编译及配置中出现的问题及解决.链接: 【OpenCV】编译OpenCV时,FFmpeg或ippicv下载不成功的解决方案.现象因为不是同一台电脑,就不截图了就是下载ffmpge、ippicv等不成功,因为网络的原因解决方法首先,进入链接: IPAddress.com.

2020-11-26 21:57:06 827 2

原创 小的无人机仿真代码

无人机仿真代码,至少能飞改善转弯函数应该可以得到好的仿真上代码吧import mathimport matplotlib.pyplot as pltimport randompi = math.piclass Fly: def __init__(self, vec, rad, x, y): self.vec = vec # 速度 self.rad = rad # 方向 self.x = x # 坐标 self.y

2020-10-10 16:10:10 1028

原创 pytorch简单的神经网络

pytorch简单的神经网络,可用于简单的预测简言简单的神经网络,介绍就不写了主函数# coding=utf-8import torchimport mathimport torch.nn as nnimport torch.optim as optim# import matplotlib.pyplot as plt#画图import numpy as npimport torch.utils.data as Datafrom model.utils import *from t

2020-10-10 16:02:52 167

原创 darknet 出现 video stream stopped 怎么解决

darknet 出现 video stream stopped 怎么解决卸载已安装OpenCV安装ffmpeg安装 opencv参考了博文:CentOS8编译OpenCV4.3.0 with ffmpeg(YoloV4处理视频并保存).卸载已安装OpenCV请谨慎!我是源码安装的 opencv找到当初安装的opencv的build目录,进入build目录执行以下操作:sudo make uninstallcd ..rm -Rf build我在这里就卸载完了opencv了,可输入 pkg-c

2020-08-01 13:31:41 6607

gsl_lib.zip

C++,GSL库的lib文件夹,已经生成了lib文件

2021-01-29

opencv-contrib-3.4需要下载的一些文件

opencv-contrib-3.4一些需要的下载文件,放在对应位置下。 face_landmark_model.dat ippicv,这个是整个文件夹 boostdesc_bgm.i、boostdesc_bgm_bi.i、boostdesc_bgm_hd.i、boostdesc_binboost_064.i、boostdesc_binboost_128.i、boostdesc_binboost_256.i、boostdesc_lbgm.i、vgg_generated_48.i、vgg_generated_64.i、vgg_generated_80.i、vgg_generated_120.i

2020-12-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除