![](https://img-blog.csdnimg.cn/20190918135101160.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习与深度学习
文章平均质量分 76
机器学习基础知识,深度学习实践部分,侧重于目标检测领域
拔牙的萌萌鼠
这个作者很懒,什么都没留下…
展开
-
半监督学习(主要伪标签方法)
目前许多研究的假设都是利用聚类假设而进行训练的,这些方法都基于一个概念,即如果给一个无标签样本增加扰动,那么扰动数据的预测和原数据的预测不会有明显的改变,在聚类假设下,具有不同真实标签的数据点应当在低密度区域分隔开,因此,某样本在扰动后的预测结果发生类别变化的可能性也该很小。因此,与其最小化在输入空间的零维数据点上的分类成本,正则化的模型使每个数据点周围的流形上的成本最小化,使决策边界远离未标记的数据点,并平滑数据所在的流形[193]。最后一步是,混合这两个batch的中的样本,形成一个新的batch。原创 2023-08-08 15:40:10 · 4971 阅读 · 0 评论 -
Z-score 标准化(standardization)
Z-score 标准化(standardization)1. 标准化和正则化严格来说z-score是标准化的操作,有的地方写的归一化(normalization),是错误的说法。1)标准化是通过变换使得数据符合均值为0,方差为1的分布。2)归一化湿通过变换使得数据值变到[0, 1] 这个区间中。两者有本质的区别。2. 计算方法1)标准差计算公式:σ=1N∑i=1N(xi−μ)2 \sigma=\sqrt{\frac{1}{N}\sum_{i=1}^N(x_i-\mu)^2} σ=N1原创 2022-05-05 16:58:21 · 14346 阅读 · 2 评论 -
Attention Is All You Need 架构分析
Attention Is All You Need 架构分析11. 序列问题序列建模和转换问题中应用最先进的模型有:递归神经网络(RNN),长短期记忆网络(LSTM),门控递归神经网络。最近处于发力点的模型有循环语言模型和编码器-解码器架构。序列建模和转换模型中,注意力机制作为其中重要组件,允许对依赖关系进行建模,而不用考虑依赖关系在输入序列或者输出序列中的距离。注意力机制通常与递归网络协同使用。Transformer的提出是为了避免递归网络的使用,是为了干掉递归网络的。Transformer的模型原创 2021-11-27 15:07:53 · 817 阅读 · 0 评论 -
稀疏表示分类
稀疏表示分类1. 机器学习中稀疏表示与字典学习1字典学习也叫稀疏编码,但这两个称谓有稍稍的区别,“字典学习”侧重于描述学得字典的过层,而“稀疏编码”侧重于表述将原样本进行稀疏表达的过程。两者通常是在一个最优化求解过程中完成的,所以这两者不做进一步区分,笼统地认为是一个东西。给定一个数据集 {x1,x2,...,xm}\ \{\boldsymbol{x_1,x_2,...,x_m}\} {x1,x2,...,xm},对此数据集进行字典学习的最简单形式为:KaTeX parse原创 2021-11-25 15:49:56 · 1566 阅读 · 0 评论 -
目标检测模型组件构成
目标检测模型组件构成1目标检测架构通常具有共同的组件,这些组件大致可以概括成一下几类。1. Backbone:Backbone是用于将图像转换为特征映射的部分,比如去掉最后一层全连接层的ResNet-50。2. Neck连接backbone和head。Neck用于优化改进和重新配置backbone产生的原始特征数据。例如特征金字塔网络(FPN)。3. DenseHead(AnchorHead/AnchorFreeHead)DenseHead用于操作特征映射的密集位置,包括AnchorHead原创 2021-11-23 20:48:28 · 2232 阅读 · 0 评论 -
长尾分布数据
长尾分布数据11. 什么是长尾分布数据长尾分布数据是一种偏态分布,是指几个类别(亦叫头类)包含大量的样本,而大多数类别(亦叫尾类)只有非常少量的样本。类似这样的数据集会使得深度学习网络在头部类中表现良好,在尾部类中效率不高,整体的识别精度显著下降。2. 解决办法大多数研究者通过不平衡学习策略来解决长尾识别问题,主要分为两类:数据级方法和算法级方法。数据级方法数据水平的策略包括尾部类过采样,头部类欠采样,以及其他新的抽样方法。所以解决手段主要着力于如何对数据进行抽样。这种方法存在的问题是,过采原创 2021-11-23 20:37:05 · 11311 阅读 · 0 评论 -
目标检测指标AP和mAP.
一、准确率&回归率术语表:-预测正例预测反例真值正例TPFN真值反例FPTN准确率Precision公式表示:Precison=TPTP+FPPrecison=\frac{TP}{TP+FP}Precison=TP+FPTP回归率Recall公式表示:Recall=TPTP+FNRecall=\frac {TP}{TP+FN}Recall=TP+FNTP Precision表示预测为正例的结果中有多少是对的,比如100个原创 2021-11-11 11:19:41 · 3808 阅读 · 0 评论 -
Self-attention module详解
Self-attention module详解1. Data Input and Output生活中解决实际问题时,可能会遇到一组向量作为输入的情况,这种输入情况称作为Vector Set as Input。这类问题常常出现在文本翻译,语音识别,图(Graph)分析中。那么这类问题的输出,就是一组或一个label,根据输出label个数不同可以分为以下三类:情况1. 每个向量都会有一个label#mermaid-svg-mEw8QuMFHSjtd3JG .label{font-family:'tr原创 2021-10-27 19:26:44 · 1071 阅读 · 0 评论 -
Swin-Transfomer环境配置及推理测试
Swin-Transfomer环境配置及推理测试环境要求一览Linux or macOS (Windows is in experimental support)Python 3.6+PyTorch 1.3+CUDA 9.2+ (If you build PyTorch from source, CUDA 9.0 is also compatible)GCC 5+MMCV安装虚拟环境准备创建conda虚拟环境并激活conda create -n openmmlab python=3原创 2021-10-26 11:45:08 · 289 阅读 · 0 评论 -
MNIST手写数字识别
MNIST手写数字识别0. 数据集介绍训练样本60000个,测试样本10000个,无验证集。每个样本为一张28*28的灰度图。1. 数据下载from torch.utils.data import DataLoaderdataRoot = "./MNISTDATA"trainBatchSize = 64 # 训练batch sizetestBatchSize = 1000 # 测试batch size# torchvision.transforms是pytorch中的图像预处理包原创 2021-10-26 10:44:46 · 400 阅读 · 0 评论 -
FAIR1M数据介绍
FAIR1M数据介绍1. 下载官方下载链接:百度网盘提取码u2xg数据下载链接若产生侵权,请联系删除申明:The FAIR1M dataset is available for the academic purpose only. Any researcher who uses the FAIR1M dataset should obey the licence as below:All of the FAIR1M Dataset (data, annotation and software)原创 2021-10-09 16:17:54 · 5184 阅读 · 13 评论 -
DETR-Object detection配置教程
DETR-Object detection配置教程0. github下载为zip压缩包,解压到你的工作目录下Object Detection with DETR : A minimal implementation DEMO点击此处1. Anaconda环境配置创建detr环境conda create -n detr python=3.8conda activate detrcd D:\Coding\AnacondaProject\detr-main #进入detr-main目录安装原创 2021-10-09 11:36:22 · 1232 阅读 · 1 评论 -
解决Ubuntu无法锁屏,锁屏选项变成灰色。
解决Ubuntu18.4无法锁屏的问题问题现象win+L和ctrl+alt+L均无法锁屏,右上角也没有锁屏快捷键。进入设置-隐私-锁屏所有选项都是灰色的不可选择。gnome-screensaver-command -l显示没有收到应答。查看日志有如下结果:解决办法sudo apt install dconf-editor然后进入程序里面找到这个程序:找到org.gnome.desktop.lockdown里面。有一个disable-lock-screen,将其值改为关闭原创 2021-09-23 11:21:14 · 1704 阅读 · 0 评论 -
nvidia-docker安装教程
nvidia-docker安装Nvidia-Docker安装需要安装两个部分,Docker-CE和NVIDIA Container Toolkit。1. 安装Dokcer-CEDocker-CE on Ubuntu can be setup using Docker’s official convenience script:官方的快速安装脚本,具体安装的版本应该是最新版,如果用此脚本安装Docker,以后还可以使用此脚本更新:curl https://get.docker.com | sh \原创 2021-09-22 15:26:30 · 9125 阅读 · 4 评论 -
【阅读笔记】End-to-End Object Detection with Transformers
【阅读笔记】End-to-End Object Detection with Transformers1. 引言2. 相关工作2.1 Set Prediction2.2 Transformers and Parallel Decoding2.3 Object detectionSet-based loss.Recurrent detectors.3. DETR模型3.1 对象检测集预测损失DETR推断出一组固定大小的N个预测,在一次通过解码器中,N被设置为明显大于图像原创 2021-09-17 16:45:20 · 143 阅读 · 0 评论 -
YOLOX-COCO训练教程+权重使用
YOLOX-COCO训练教程+权重使用0. 配置好你的YOLOX环境如果不知道如何在windows下配置,请查看我的上一篇文章。1. 准备好你的数据根据YOLOX官方引导,已经提供了miniCOCO下载链接,存储在GoogleDrive上的。下载成功后解压,得到树状目录如下:─coco128 ├─annotations ├─train2017 └─val2017将此文件夹直接复制粘贴进你的yolox目录下的datasets。读取annotations下instances原创 2021-09-16 11:52:29 · 3709 阅读 · 6 评论 -
Windows+Ubuntu构建双系统
0.确保你已经分配好了50G的空闲空间在此电脑上点击管理,然后在一个分区上选择压缩,输入50G的空间即可。1. 下载Ubuntu镜像文件这里以Ubuntu18.04为例,在阿里云下载Ubuntu镜像文件文件选择Desktop那个:ubuntu-18.04.5-desktop-amd64.iso2. 下载软碟通进行刻录Ubuntu的安装无法用老毛桃这种工具直接安装,需要用软碟通刻录到U盘里,具体操作是。在软碟通中打开iso文件,然后选择“写入硬盘镜像”,选择你的U盘写入即可。3. 安装Ubun原创 2021-08-26 19:12:08 · 263 阅读 · 0 评论 -
windows下配置YOLOvX教程
0. 确保你的机器上已经安装好了Anaconda1. 安装cuda和pytorchCUDA和PyTorch要保证版本匹配。Pytoch下载页面比如这里pytoch是1.9.0版本,那么它所对应的CUDA版本就是10.2或者11.1。于是我们这里可以去找11.1版本的CUDA。本人习惯先安装CUDA,因为如果不是遇到新的问题,CUDA是在本机中可以长期保持不变的,而且重复卸载安装CUDA比较麻烦,当然这部分也有相关的教程可以参考。进入CUDA11.1下载页面,然后根据需要安装好CUDA11.1,原创 2021-08-26 10:43:34 · 1418 阅读 · 0 评论 -
(二)最小条件平均风险的贝叶斯判别
最小条件平均风险贝叶斯判别可以在本质上与最小错误贝叶斯判别等价,前提是前者对L的定义要符合要求,都是求输入样本的后验概率,谁大就判定为哪一类。原创 2020-12-16 15:44:02 · 657 阅读 · 0 评论 -
(一)最小错误率的贝叶斯决策的理解
最小错误率的贝叶斯决策的理解:“输入x,判定为w1类,此判断错误的概率”等价于“输入x,判定为w2类,此判断正确的概率”原创 2020-12-15 23:01:31 · 1981 阅读 · 0 评论 -
协方差矩阵的解法和例题
看了一下百度出来的例题,全是晦涩难懂的公式,例题里面高赞票数普遍都是错误的一传十,十传百,于是写在这里供需要的人查阅,自己也可以加深印象。原创 2020-10-25 22:20:38 · 20042 阅读 · 6 评论 -
机器学习前置概率论知识学习:条件概率,全概率,贝叶斯公式
原创 2020-10-18 19:58:00 · 403 阅读 · 0 评论