算法
文章平均质量分 90
面试算法
小Aer
站在巨人的肩膀上仰望星空
展开
-
二叉树的前中后序遍历,层序遍历,BFS,DFS的递归和非递归实现(Python)
二叉树中DFS分为前中后序遍历,DFS如果在图中,就没有前中后序遍历说法,如果在矩阵中,变化顺序就由上下左右随机组合了二叉树中BFS和层序遍历又有些区别遍历的递归实现深度遍历的运行过程是先进后出的,自然的方法是栈和递归广度遍历的运行过程是先进先出的,自然的方法是队列中序后序遍历的非递归实现前序中序后序BFS层序层序遍历要求的输入结果和 BFS 是不同的。层序遍历要求我们区分每一层,也就是返回一个二维数组。而 BFS 的遍历结果是一个一维数组,无法区分每一层。引用[0]原创 2022-08-23 18:25:30 · 953 阅读 · 2 评论 -
随机森林和GBDT的区别
随机森林和GBDT缺点。转载 2022-08-17 15:20:07 · 298 阅读 · 0 评论 -
目标检测的进阶-one stage
文章目录前言Stage它们的主要区别one-stageSSD网络结构图特点损失函数YOLOv1网络结构图特点损失函数优缺点YOLOv2网络结构特点损失函数优缺点YOLOv3网络结构Darknet-53特点two-stageAnchoranchor-free 和 anchor-based 优缺点anchor boxanchor freeInference前言上一章介绍了目标检测的入门,这一章就目标检测近些年的发展做一个介绍。关于目标检测具体怎么分,谁和谁一家其实有两种分类:基于anchor和stage。原创 2022-04-27 21:32:21 · 2839 阅读 · 0 评论 -
卷积神经网络CNN常用的几个模型
文章目录0️⃣LeNet5🏵LeNet-5的训练算法🏵卷积神经网络的优点🏵总结1️⃣AlexNet🏵特点🏵代码🏵主要贡献🌺ReLU激活函数的引入🌺层叠池化操作🌺Dropout操作🌺网络层数的增加2️⃣VGGNet(Visual Geometry Group)🏵要点3️⃣Google Inception Net🏵1x1卷积的作用🏵要点4️⃣ResNet🏵要点5️⃣基于区域的CNNs (R-CNN - 2013, Fast R-CNN - 2015, Faster R-CNN - 2015)🏵RCNN🏵Fast原创 2022-04-25 16:50:23 · 6728 阅读 · 0 评论 -
分类问题的评估指标
文章目录1️⃣ 起始源头2️⃣ 重要三点3️⃣ 衍生而出的指标 🍞 召回率==查全率R 🍦 精确率==查准率P 🍞 + 🍦 = 🍰 PR曲线 🍱 准确率 🌮 F1 🍠 Fβ原创 2022-03-27 19:48:49 · 1255 阅读 · 0 评论 -
详解多级目标检测体系结构Cascade RCNN
随着box回归带来proposal提高的同时,提高训练时proposal的IoU阈值和检测器的IoU阈值,让他们保持相近,从而训练多个级联的检测器。原创 2022-03-24 19:36:31 · 4124 阅读 · 5 评论 -
详解IoU、GIoU、DIoU、CIoU、EIoU和DIoU-NMS
IoU厨师大赛原创 2022-03-30 17:07:42 · 22659 阅读 · 16 评论 -
非极大值抑制Non-Maximum Suppression(NMS)
1. 目的使用NMS目的:提高召回率,但是召回率是“宁肯错杀一千,绝不放过一个”。因此在目标检测中,模型往往会提出远高于实际数量的区域提议(Region Proposal,SSD等one-stage的Anchor也可以看作一种区域提议)。这就导致最后输出的边界框数量往往远大于实际数量,而这些模型的输出边界框往往是堆叠在一起的。因此,我们需要NMS从堆叠的边框中挑出最好的那个。2. 何时使用NMS?回顾我在Cascade-RCNN中提到的流程:提议区域提取特征目标分类回归边框NMS使用.原创 2022-03-29 20:24:05 · 1932 阅读 · 0 评论 -
精确率和召回率 与 置信度之间的关系
文章目录1️⃣前言2️⃣召回率3️⃣精确率4️⃣总结1️⃣前言混淆矩阵的更多信息可以查看我另外一篇文章2️⃣召回率可以看到召回率的分母是TP+FN,表示正样本的个数,是没有办法改变的,是客观的;那么只有TP发生变化的时候,召回率才会发生变化;因此,当置信度阈值调低之后,会导致很多阈值低的样本被认为是真,当然除了TP会增加,FP也会增加,但是FP并不会影响到召回率的大小;在最极端的情况下,阈值为0,所有样本预测为真,会导致TP+FP达到样本数量(正常来说:总样本=TP+FP+TN+FN),TP是最.原创 2022-04-02 17:12:15 · 4620 阅读 · 0 评论 -
详解激活函数
文章目录0️⃣前言1️⃣Sigmoid2️⃣tanh3️⃣Relu4️⃣Leaky Relu5️⃣Softmax6️⃣总结0️⃣前言用了这么久的激活函数,抽空总结一下吧,不然总是忘记,这里介绍常用到的sigmoid,tanh,relu,leaky relu,softmaxtips:部分图片来自计算机视觉研究院公众号1️⃣SigmoidSigmoid 函数的图像看起来像一个 S 形曲线。函数表达式如下:在什么情况下适合使用 Sigmoid 激活函数呢?Sigmoid 函数的输出范围是原创 2022-04-10 19:03:52 · 2889 阅读 · 0 评论 -
详解HRNet姿态估计算法
文章目录🧇前言🧇HRNet理论🧇HRNet结构细节🍞Backbone设计🍞BasicBlock设计🍞Bottleneck设计🍞FuseLayer设计🍞TransitionLayer设计🍞Neck设计🍞整体代码设计🧇实验🧇Reference🧇前言本文结合多位大佬文章和自己理解所绘制,希望对大家有所帮助论文地址:https://arxiv.org/pdf/1908.07919.pdf代码地址:https://github.com/HRNet🧇HRNet理论计算机视觉领域有很多任务是位置敏感的,比原创 2022-04-20 19:16:49 · 6620 阅读 · 3 评论 -
ResNet知识点补充
文章目录前言传统深度学习网络的退化问题深层CNN为何发生退化? and ResNet到底解决了什么问题?简单了解下ResNet和残差结构前言这篇文章介绍resnet的重要小点,为面试做准备(1)传统深度学习网络的退化问题(2)ResNet到底解决了什么问题?(3)简单了解下ResNet和残差结构(4)残差结构如何解决退化问题(5)残差结构还有什么其他作用?传统深度学习网络的退化问题(1)在很深的网络层中,由于参数初始化一般更接近0,这样在训练过程中通过反向传播更新浅层网络的参数时,很容易随原创 2022-04-22 20:59:12 · 626 阅读 · 0 评论 -
详解决策树与随机森林
文章目录0️⃣引言1️⃣决策树🎟基本流程🎟特征选择🚌信息增益🚎缺点🚌信息增益率🚎缺点🚌基尼指数🎟剪枝处理2️⃣随机森林🎟bagging集成介绍0️⃣引言在之前介绍过决策树和随机森林调参,但都是直接调用skelearn,这次想重点介绍一下原理。1️⃣决策树🎟基本流程以分类任务为代表的决策树模型,是一种对样本特征构建不同分支的树形结构。一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策边界,其他每个结点则对应于一个属性测试;每个结点包含的样本结合根据属性测试的结.原创 2022-04-08 19:19:08 · 1508 阅读 · 0 评论 -
机器学习之集成学习(Ensemble Learning)
文章目录0️⃣概念1️⃣分类2️⃣特点⚔好而不同⚔五大特点⚔思考3️⃣五大方法🐱🐉训练样本扰动:🥘Boosting(例如:AdaBoost, GBDT)🥘Bagging(例如:Random Forest)🥘Bagging,Boosting二者之间的区别🥘Stacking🥘 决策树与这些算法框架进行结合所得到的新的算法:🐱🐉输入属性扰动:🥘RF算法解释🐱🐉算法参数扰动🐱🐉输出标记扰动🐱🐉混合扰动4️⃣集成学习结合策略5️⃣引用0️⃣概念集成学习就是组合这里的多个弱监督模型以期得到一个更好更全面的原创 2022-04-10 21:48:58 · 2802 阅读 · 0 评论 -
详解FCOS《FCOS: Fully Convolutional One-Stage Object Detection》
文章目录0️⃣前言1️⃣Introduction2️⃣FCOS原理2.1 FCOS网络结构及输出设计2.2 Head输出特征图解码详解FPN的多级预测机制引用0️⃣前言Paper link:https://arxiv.org/pdf/1904.01355.pdfCode link:https://github.com/tianzhi0549/1️⃣IntroductionFCOS的paper是《FCOS: Fully Convolutional One-Stage Object Detection原创 2022-04-11 18:38:31 · 4721 阅读 · 2 评论 -
KNN与K-means的区别
整篇文章整合多人文章,并且加上自己的一些理解创作文章目录1. KNN(K-Nearest Neighbor)介绍1.1 优点1.2 缺点1.3 skelearn库代码实现1.4 手动实现KNN算法2. K-Means介绍2.1 优点2.2 缺点2.4 skelearn库代码实现2.5 手动实现K-Means算法3. KNN和K-Means的区别4. 引用1. KNN(K-Nearest Neighbor)介绍KNN是一种常用的监督学习办法,其工作机制十分简单:给定测试样本,基于某种距离度量找出训练.原创 2022-03-11 17:34:55 · 2388 阅读 · 0 评论