![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
机器学习笔记,包括手推公式等。
灯晃码农liuxin
这个作者很懒,什么都没留下…
展开
-
目标检测新方法(DETR)
TOCDETR — End-to-End Object Detection with Transformersoutline摘要:我们提出了一种将对象检测视为直接集预测问题的新方法。 我们的方法简化了检测流程,有效地消除了对许多手工设计的组件的需求,例如非最大抑制程序或锚点生成,这些组件明确编码了我们对任务的先验知识。 新框架的主要成分称为DEtection TRANSformer或DETR,是基于集合的全局损耗,它通过二分匹配和变压器编码器-解码器体系结构来强制进行唯一的预测。 给定固定的学习对原创 2020-10-18 10:38:02 · 16916 阅读 · 4 评论 -
pytorch学习笔记(三)
文章目录CIFAR图片分类实现数据获取数据分析网络构建训练与可视化CIFAR图片分类实现数据获取这里数据获取依旧使用torchvision,后面会尝试做一点自己的数据集。这里关注一下归一化这个问题,在没有使用BN的情况下,我们通常会对数据进行归一化或者标准化,好处我大概总结了一下:计算机大数吞小数的情况,也就是数值方面的问题在训练中,针对激活函数的非线性性,在区间限制内才有比较好的非线性性。梯度的数量级可能变化非常大,同时可能会存在数值问题权值太大,学习率就必须非常小,也会引发数值问题收敛原创 2020-06-22 11:10:00 · 248 阅读 · 0 评论 -
pandas学习笔记
文章目录Panda学习笔记panda简介基本数据类型SeriesDataFrame提取、添加、删除行(列)索引追加删除统计运算分组异常值处理字符串空值处理筛选非数字型筛选其余类型筛选Panda学习笔记panda简介基本数据类型SeriesSeries 是带标签的一维数组,可存储整数、浮点数、字符串、Python 对象等类型的数据。轴标签统称为索引。调用 pd.Series 函数即可创建 Series:import pandas as pdimport numpy as npimport ma原创 2020-05-26 13:55:43 · 289 阅读 · 0 评论 -
SPP Net笔记
SPP Net文章目录SPP NetSPP Net的由来SPP NET基本原理SPP Net的由来论文地址来自于北邮的一个小姐姐的翻译地址比较好的解释说到SPP Net就不得不提RCNN了,RCNN的一般流程可以概括为:将输入图片进行resize;利用selective search 算法在图像中从上到下提取2000个左右的Region Proposal;将每个Region P...原创 2020-04-16 23:22:13 · 184 阅读 · 0 评论 -
Faster R-CNN论文笔记
Faster R-CNN论文翻译AbstractState-of-the-art object detection networks depend on region proposal algorithms to hypothesize object locations.Advances like SPPnet [1] and Fast R-CNN [2] have reduced the ...原创 2020-04-15 11:14:06 · 606 阅读 · 0 评论 -
pytorch学习笔记(五)调参优化
在CIFAR上的优化调参前言这次的实验主要是为了针对笔记(三)和笔记(四)上的后续的操作,同时也是为了撰写高级数字图像处理的论文而做理论和数据准备。网络结构更换自定义网络第一次实验是在自己设计的一个7层网络上进行的,2层卷机层,2层池化层,3层全连接层。训练过程未做任何处理,最后结果在40%。包括后来调整了很多参数,最后只能达到下面的效果。从上面的图可以明显的看到,此模型的训练误差不...原创 2020-04-08 09:56:11 · 827 阅读 · 0 评论 -
机器学习优化算法
梯度下降算法动手学深度学习批量梯度下降批量梯度下降是最原始的梯度下降方法,在没有mini_batch之前,在进行一次梯度更新时需要把所有的样本损失进行计算,最后求出它们的梯度,最后求平均。∇f(x)=1n∑i=1n∇fi(x)\nabla f(\boldsymbol{x})=\frac{1}{n} \sum_{i=1}^{n} \nabla f_{i}(\boldsymbol{x})∇...原创 2020-03-28 20:40:06 · 168 阅读 · 0 评论