![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
小娜美要努力努力
种一棵树最好的时间是十年前,其次是现在。
展开
-
YOLOV3整体运行流程整理
YOLOV3整体运行流程整理1.网络输入: YOLO V3依然采用YOLOV2中Multi-Scale Training的思想,每隔几次迭代后就会微调网络的输入尺寸。 训练时每迭代10次就会随机选择新的输入图像尺寸,因为YOLOV3的网络使用的下采样倍率为32,所以使用32的倍数调整输入图像尺寸{320,352,…,608},训练使用的最小的图像尺寸为320 x 320,最大的图像尺寸为608 x 608,这使得网络可以适应多种不同尺度的输入。2.网络结构Dar...原创 2020-05-25 14:50:18 · 2780 阅读 · 0 评论 -
YOLO V1学习笔记
YOLO V1学习笔记1.YOLOV1的思路: YOLO的核心思想就是利用整张图作为网络的输入,直接在输出层回归bounding box的位置和bounding box所属的类别,把目标检测的问题转化成一个回归问题。2.YOLO系列的特点: (1)速度快,能够达到实时的要求,在Titan X的GPU上 能够达到 45 帧每秒; (2)使用全图作为环境信息,背景错误(把背景错认为物体)比较少; (3)泛化能力强。3.YOLOV1处...原创 2020-05-18 16:52:04 · 297 阅读 · 0 评论 -
FasterRcnn RoiPooling(Pytorch版本)部分几个问题的解析
FasterRcnn RoiPooling(Pytorch版本)部分几个问题的解析:(1)lib/model/roipooling文件夹中几个子文件夹的内容: faster rcnn pytorch中的roi pooling简介 简述: 1)src文件夹下是C和CUDA版本的源码,其中roi_pooling的操作的前向传播有C和CUDA版本,反向传播只有CUDA版本; 2)ext文件夹下存储src文件...原创 2020-05-18 10:41:47 · 560 阅读 · 0 评论 -
机器学习36:YOLOV4相关理论知识整理
机器学习36:YOLOV4相关理论知识整理: YOLOV4论文:https://blog.csdn.net/Sophia_11/article/details/105726907 YOLOV4论文翻译:https://blog.csdn.net/qq_34795071/article/details/105734300?fps=1&locationNum...原创 2020-04-28 11:13:55 · 910 阅读 · 0 评论 -
机器学习35:理解正则化
机器学习35:理解正则化(1)奥卡姆剃刀原则: “如无必要,勿增实体”,即简单有效原理,切勿浪费较多东西去做,用较少的东西同样可以做好的事情。(2)稀疏参数的好处: 1)可以简化模型,避免过拟合。 因为一个模型中真正重要的参数可能并不多,如果考虑所有的参数起作用对训练数据可以预测的很好,但是可能对测试数据表现性...原创 2020-04-24 09:17:38 · 828 阅读 · 0 评论 -
机器学习34:贝叶斯先验概率
机器学习34:贝叶斯先验概率: 理解贝叶斯先验概率是为了更好的理解正则化的概念。(1)贝叶斯先验概率和贝叶斯后验概率: 1.先验概率是指根据以往经验和分析得到的概率,即在事情发生之前事情发生的概率。它往往作为"由因求果"问题中的"因"出现; 2.后验概率是指依据得到"结果"信息所计算出的最有可能是哪种事件发生,用于判断事情发生时...原创 2020-04-24 08:54:56 · 2631 阅读 · 0 评论 -
【Clipping input data to the .... for integers).】的解决办法
【Clipping input data to the .... for integers).】的解决办法: 参考资料:https://www.freesion.com/article/7534157435/ 在用matplotlib.pyplot显示输入图像时,一直报警告错误“Clipping input data to the valid range...原创 2020-04-21 14:09:58 · 1655 阅读 · 0 评论 -
机器学习33:YoloV1/V2/V3学习笔记
1.YoloV1:2.Yolo V2对Yolo V1的改进:3.YOLO V3对YOLOV2的改进: 2.1类别预测方面主要是将原来的单标签分类改进为多标签分类(softmax->logistic): 网络结构上将原来用于单标签多分类的Softmax层换成用于多标签多分类的逻辑回归层。...原创 2020-03-24 11:21:30 · 847 阅读 · 0 评论 -
机器学习32:Batch Normalization 学习笔记(转载)
机器学习32:Batch Normalization 学习笔记(转载)原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce1.背景意义: 本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep ...转载 2020-03-20 10:45:12 · 156 阅读 · 0 评论 -
机器学习32:对Resnet几个问题的理解
机器学习32:对Resnet几个问题的理解 Resnet对传统网络的改进:加入Shortcut连接,改善了深层网络的网络退化问题,使网络模型可以训练到很深层等已经是老生常谈了,也训练过Resnet模型有效地分类了Cifar数据集,但是对于Resnet始终存有几个疑问。 首先第一个问题是为什么=x较=0拟合难度大;第二个问题是如果残差模块的训练目...原创 2020-03-19 14:22:20 · 3247 阅读 · 1 评论 -
机器学习31:深度学习模型调参技巧【转载整理】
机器学习31:深度学习模型调参技巧【转载整理】 本文转载自博客模型调参:分步骤的提升模型的精度(cnn)和知乎问题你有哪些deep learning(rnn、cnn)调参的经验?的回答,主要整理博客和知乎问答中关于卷积神经网络的调参技巧。1.博客整理: 链接:模型调参:分步骤的提升模型的精度(cnn) 来源:CSDN (1)数据增强技术:...转载 2020-03-13 13:19:27 · 1569 阅读 · 0 评论 -
机器学习30:关于FasterRCNN代码中三个Creator及四个损失的补充
机器学习30:关于FasterRCNN代码中三个Creator及四个损失的补充 这是关于Faster RCNN的第四篇博客,之前写过机器学习17:FasterRCNN简介,机器学习18:RPN区域候选网络简介主要是基于原理和流程上的简介,转载了Faster RCNN的代码流程梳理【转载整理】,主要是从代码的角度梳理Faster RCNN的流程。 目标检测之Fas...原创 2020-03-11 11:27:39 · 444 阅读 · 0 评论 -
Faster RCNN的代码流程梳理【转载整理】
Faster RCNN的代码流程梳理【转载整理】 本文转载自知乎链接:从编程角度学习Faster R-CNN。 在目标检测领域, Faster R-CNN表现出了极强的生命力, 虽然是2015年的论文, 但它至今仍是许多目标检测算法的基础,这在日新月异的深度学习领域十分难得。Faster R-CNN还被应用到更多的领域中, 比如人体关键点检测、目标追踪、...转载 2020-03-10 17:06:38 · 870 阅读 · 2 评论 -
应该掌握的7种回归模型
应该掌握的7种回归模型 本文转载自博客你应该掌握的7种回归模型!。 线性回归和逻辑回归通常是人们学习预测模型的第一个算法。由于这二者的知名度很大,许多分析人员以为它们就是回归的唯一形式了。而了解更多的学者会知道它们是所有回归模型的主要两种形式。 事实是有很多种回归形式,每种回归都有其特定的适用场合。在这篇文章中,我将以简单的形式介...转载 2020-03-06 14:40:27 · 3680 阅读 · 0 评论 -
机器学习29:Sklearn库常用分类器及效果比较
机器学习29:Sklearn库常用分类器及效果比较1.Sklearn库常用分类器:#【1】 KNN Classifier # k-近邻分类器 from sklearn.neighbors import KNeighborsClassifier clf = KNeighborsClassifier()clf.fit(train_x, train_y) #【2】 Log...原创 2020-03-05 13:59:12 · 2491 阅读 · 0 评论 -
机器学习28:多卷积核处理多通道特征图机制
机器学习28:多卷积核处理多通道特征图机制 作为常识,卷积层的输出特征图通道数等于卷积层的卷积核个数,而与卷积层的输入特征图通道数无关,但是如果对多卷积核处理多通道特征图的机制不清楚那么对于这个过程理解的就会不够深入,本文的参考资料为知乎:一文读懂Faster RCNN。 对于多通道图像+多卷积核做卷积,计算方式如下: 如上图所示,假设输入有3个...原创 2020-03-04 10:26:24 · 2473 阅读 · 0 评论 -
机器学习27:svm/决策树/随机森林/knn分类鸢尾花数据集
机器学习27:svm/决策树/随机森林/knn分类鸢尾花数据集 本文主要通过调用sklearn库调用svm/knn/决策树/随机森林实现简单的鸢尾花数据集的分类,主要的目的是熟悉处理流程。1.svm分类鸢尾花数据集:# 文件功能:svm分类鸢尾花数据集from sklearn import svmfrom sklearn.model_selection imp...原创 2020-03-03 17:56:28 · 2970 阅读 · 0 评论 -
机器学习26:卷积神经网络特征图尺寸计算
机器学习26:卷积神经网络特征图尺寸计算1.经过卷积层的特征图尺寸计算: 已知输入特征图尺寸:,卷积核尺寸:,步长:,填充的像素数:,则这个卷积层输出的特征图尺寸为: ...原创 2020-02-18 18:16:23 · 1585 阅读 · 0 评论 -
机器学习25:可能导致训练网络不收敛的几种原因
机器学习25:可能导致训练网络不收敛的几种原因1.可能导致训练网络不收敛的几个原因: (1)没有做数据归一化; (2)没有检查过预处理结果和最终的训练测试结果; (3)没有做数据预处理; (4)没有使用正则化; (5)Batch Size设的太大; (6)学习率设的不合适; ...原创 2020-02-17 17:11:14 · 1542 阅读 · 0 评论 -
机器学习24:支持向量机基础
机器学习24:支持向量机基础1.支持向量机概述/分类/决策函数推导: SVM支持向量机的概述2.拉格朗日乘子/KKT条件/SMO算法/松弛因子: SVM支持向量机-拉格朗日乘子与对偶问题(1) SVM支持向量机-SMO算法公式推导(2) SVM支持向量机-软间隔与松弛因子(3)3.支持向量机的核函数: ...原创 2020-02-08 11:50:33 · 269 阅读 · 0 评论 -
机器学习23:过拟合和欠拟合的常用处理方法
机器学习23:过拟合和欠拟合的常用处理方法(整理)1.过拟合和欠拟合概述: 在机器学习和深度学习的训练过程中,经常会出现过拟合和欠拟合的现象。训练初期模型通常会欠拟合,在对模型进行优化后训练到一定程度的时候就需要解决过拟合的问题。在训练过程中会定义训练误差、验证集误差和测试集误差(泛化误差),训练误差总是减少的,而泛化误差开始会减少,但到一定程度后不减反而增加,这时候便...原创 2020-01-10 10:24:45 · 859 阅读 · 0 评论 -
机器学习22:全卷积神经网络中卷积层替换全连接层的意义
机器学习22:FCN中卷积层替换全连接层的意义 上一篇博客介绍了全连接神经网络,关于卷积层替换CNN中全连接层的可行性和优势叙述的不够清晰,在此进一步补充。本文主要参考了为什么使用卷积层替代CNN末尾的全连接层和为什么将全连接层替换为卷积层?。1.卷积层替换全连接层的可行性: 卷积层是局部连接,它的特点是稀疏连接和权值共享;而全连接层使用了图像的全局信...原创 2020-01-09 16:18:05 · 1764 阅读 · 0 评论 -
机器学习21:全卷积神经网络FCN
机器学习21:全卷积神经网络FCN(整理) 看了很多关于全卷积神经网络的文章和博客,首先放上三篇我认为最有帮助以及适合入门的文章图像语义分割入门+FCN/U-Net网络解析,FCN学习:Semantic Segmentation以及10分钟看懂全卷积神经网络( FCN ):语义分割深度模型先驱。在学习过程中因为对全卷积神经网络中的反卷积算法理解的不够透彻,因此对反卷积算法单...原创 2020-01-09 13:30:19 · 1507 阅读 · 0 评论 -
机器学习20:在线可视化网络结构工具Netscope
机器学习20:在线可视化网络结构工具Netscope Netscope一个很方便的网络工具,可以在线可视化Caffe的网络结构。 (1)Netscope的网址需要用google浏览器打开,Macbook安装google浏览器的步骤为:百度经验地址。 (2)进入Netscope的网址:Netscope网址。 (3...原创 2020-01-09 09:44:10 · 418 阅读 · 0 评论 -
机器学习19:反卷积算法
机器学习19:反卷积算法(转载和整理) 在整理全卷积网络的过程中,被反卷积的概念困扰很久,于是将反卷积算法单独整理为一篇博客,本文主要转载和整理自知乎问题如何通俗易懂地解释反卷积?中的高票答案。1.反卷积概述: 应用在计算机视觉的深度学习领域,由于输入图像通过卷积神经网络(CNN)提取特征后输出的尺寸往往会变小,从而导致有些情况例如在...原创 2020-01-08 16:10:54 · 3982 阅读 · 0 评论 -
机器学习18:RPN区域候选网络
机器学习18:RPN区域候选网络(转载和整理) RPN区域候选网络是Faster R-CNN对Fast R-CNN在提取候选区域的时候所做的改进,在上一篇整理Faster R-CNN的时候读了很多关于RPN的文章和资料,只是粗略了解了RPN的功能、优势、创新点等,始终没能真正理解它的实现机制。 直到读到深度学习:RPN(区域候选网络)和RPN(区域生...原创 2020-01-07 14:52:36 · 2316 阅读 · 1 评论 -
机器学习17:Faster R-CNN简介
机器学习17:Faster R-CNN简介(转载整理) 知乎上的这篇文章对于Faster R-CNN介绍的非常详细:知乎文章链接,这篇文章比较偏重于Faster R-CNN的原理解释,本文主要整理了Faster R-CNN的改进和在FastR-CNN基础上的创新。1.Faster R-CNN概述: Faster-RCNN是2015年提出的第...原创 2020-01-07 11:30:53 · 5049 阅读 · 0 评论 -
机器学习16:Fast R-CNN简介
机器学习16:Fast R-CNN简介(转载)1.SPP-Net简介: 在R-CNN网络结构模型中,由于卷积神经网络的全连接层对于输入的图像尺寸有限制,所以所有候选区域的图像都必须经过变形转换后才能交由卷积神经网络模型进行特征提取,但是无论采用剪切(crop)还是采用变形(warp)的方式,都无法完整保留原始图像信息,何凯明等人提出的空间金字塔池化层(Spatial ...转载 2020-01-06 13:48:47 · 826 阅读 · 0 评论 -
机器学习15:R-CNN简介
机器学习15:R-CNN简介(转载) 2014年Ross B. Girshick(RBG)等人在CNN的基础上设计了R-CNN模型,R-CNN(Region-based Convolution Neural Networks, 或Regions with CNN features, R-CNN)摒弃了传统的滑动窗口(通过多尺度滑动窗口确定所有可能的目标区域)和人工选取特征的方...转载 2020-01-03 10:19:32 · 1126 阅读 · 0 评论 -
机器学习14:Caffe实现卷积神经网络操作流程整理
机器学习14:Caffe实现卷积神经网络操作流程整理(1)caffe的卷积神经网络操作总流程: 1)数据格式化处理:图片的打标和打包; 2)编写网络结构文件:.prototxt文件,定义模型的网络结构,如层数/各层的特征图数/输入输出等。 3)编写网络求解文件:solver.prototxt文件,设置求解网络/梯度下降参数/迭代次数等...原创 2019-12-27 13:29:10 · 357 阅读 · 0 评论 -
机器学习13:Caffe训练自定义数据集
机器学习13:Caffe训练自定义数据集 这里简要的介绍了下如何使用自己准备的图片数据来训练和测试网络。主要的几个步骤有: a.图片数据转换为lmdb格式; b.计算训练数据的均值; c.sovler文件和网络的简单修改; d.最后caffe训练。1.数据集准备 这里我照搬denny402...转载 2019-12-27 09:16:46 · 206 阅读 · 0 评论 -
机器学习12:pytorch中transforms的22个方式【转载】
机器学习12:pytorch中transforms的22个方式【转载】 本文转载自博客https://blog.csdn.net/u011995719/article/details/85107009。 本文对transforms.py中的各个预处理方法进行介绍和总结,主要从官方文档中总结而来,官方文档只是将方法陈列,没有归纳总结,这里总结共有四大类,以下为...转载 2019-12-11 11:05:23 · 218 阅读 · 0 评论 -
机器学习11:pytorch训练自定义数据集简单示例
机器学习11:pytorch训练自定义数据集简单示例 本文整理总结自博客用portorch训练自己的数据集,在pytorch官网例程的基础上将自己的数据放到其模型下,实现一个识别手写数字的简易分类器。1.环境配置及模块导入: 首先配置pytorch的运行环境,然后导入各种模块。import torchimport torchvisionimport...原创 2019-12-11 09:49:42 · 1030 阅读 · 1 评论 -
机器学习10:如何理解随机梯度下降
机器学习10:如何理解随机梯度下降链接:https://www.zhihu.com/question/264189719/answer/291167114来源:知乎1.梯度下降法 理解随机梯度下降,首先要理解梯度下降法。 大多数机器学习或者深度学习算法都涉及某种形式的优化,优化指的是改变x以最小化或最大化某个函数的任务,我们通常以最小化指代大多数最优化问...原创 2019-12-05 11:05:41 · 1017 阅读 · 0 评论 -
机器学习9:关于pytorch中的zero_grad()函数
机器学习9:关于pytorch中的zero_grad()函数 本文参考了博客Pytorch 为什么每一轮batch需要设置optimizer.zero_grad。1.zero_grad()函数的应用: 在pytorch中做随机梯度下降时往往会用到zero_grad()函数,相关代码如下。 optimizer.zero_grad...原创 2019-11-21 11:24:22 · 37358 阅读 · 5 评论 -
机器学习8:MacBook配置pytorch(CPU版)及问题处理
机器学习8:MacBook配置pytorch(CPU版)及import失败问题处理1.pytorch的安装: 方法1:终端输入指令:conda install pytorch torchvision -c pytorch -y 方法2:终端输入指令:conda create -n python=3.7 ...原创 2019-10-31 13:30:23 · 1396 阅读 · 0 评论 -
机器学习2:过拟合和正则化
机器学习2:过拟合和正则化【旧笔记整理】(1)过拟合和欠拟合: ①相关概念: 1)泛化:机器学习模型学习到的概念在新输入样本上的表现; 2)拟合:用逼近目标函数的远近程度来描述拟合的好坏。 ②过拟合: 指某个模型过度学习了训练数据中的细节和噪声,以致模型在新的数据上表现很...原创 2019-07-24 17:56:46 · 327 阅读 · 0 评论 -
机器学习3:卷积神经网络中的相关概念
机器学习3:卷积神经网络中的相关概念【旧笔记整理】(1)特征图: ①特征图的生成: 1.输入层:灰度图片对应一个特征图,彩色图片对应三个特征图。 2.其它层:上一层的每个特征图与每个卷积核做卷积,会产生下一层的一个特征图,有N个卷积核,下层会产生N个特征图。 ②多个特征图的作用: ...原创 2019-07-26 14:41:00 · 228 阅读 · 0 评论 -
机器学习4:卷积运算简介
机器学习4:卷积运算简介【旧笔记整理】(1)卷积运算简介: 卷积即在卷积核滑动过程中,矩阵与卷积核对应位置的数据相乘最后乘积求和的计算过程。 (2)卷积运算的特性: ①稀疏连接: 1.原理:通过将卷积核大小限制为远小于输入的大小来实现; 2.意义:通过稀疏连接可以减少...原创 2019-07-26 15:43:21 · 1362 阅读 · 0 评论 -
机器学习5:variable_scope()和name_scope()
机器学习5:variable_scope()和name_scope()(1)variable_scope()简介: ①功能: 与tf.get_variable()配合使用实现变量共享的功能; ②格式: 1)with tf.variable_scope(name_or_scope,reuse=Name):;...原创 2019-08-08 09:10:29 · 216 阅读 · 0 评论