机器学习、深度学习
文章平均质量分 58
NineDays66
email:547691062@qq.com
展开
-
驾驶危险行为识别
智能驾舱行为识别原创 2022-11-03 12:59:03 · 2546 阅读 · 3 评论 -
Stacked Hourglass Networks - 堆叠沙漏网络结构详解
1.概述姿态估计(pose estimation)在计算机视觉领域是一个非常重要的方向,人类动作理解,人机互动等等应用都需要精确的姿态识别。目前,绝大多数的2d姿态识别都是识别人体的关键点,比如,给定一张普通的RGB图像,算法会给出人体的脚踝,胳膊,面部等区域的关键点(keypoint)目前,基于stacked Hourglass Model的各种变种算法,牢牢占据了姿态检测的半壁江山,所以,非常有必要搞清楚stacked hourglass model2.结构概览2.1 CNN的多层次特征CNN深原创 2021-06-04 11:11:13 · 4080 阅读 · 0 评论 -
caffe模型 转 pytorch 模型
最近基于 caff2onnx 做了部分修改,完成了caffe 转 pytorch的模型代码,主代码 , 需要自己构建 pytorch 的Net 架构, 同时 net各层的名字要与 caffe的各层对应。 graph, params = LoadCaffeModel(caffe_graph_path,caffe_params_path) #print(graph) net_pytorch = NET() net_pytorch.eval() pr..原创 2021-03-18 17:50:25 · 875 阅读 · 2 评论 -
车辆属性识别、车型识别
车辆属性识别目前在视频结构化模块是个比较难解决的部分,我们针对稀有车型做了很多优化,结果如下数据集相比于之前数据集的数据量对比情况 针对少量类别的样本进行相应的增加, 增加举例如下蓝色表示 原始少量的数据集, 黄色表示叠加的数据集数量,可以看出之前少量 数据集都有相对较多的增加。测试结构对比 - 样本少的品牌对比: 车辆结构化V1.0版本模型的结果如下:车辆结构化V2.0 版本模型的结果如下:整体正确率...原创 2021-01-21 17:00:21 · 6005 阅读 · 0 评论 -
车流量计数、不同车型统计算法
车流量计数统计算法是目前安防领域重要的应用方向,根据实时或历史视频流,实时统计不同类型的车流量比如:小客车,客货两用车,出租车,公交车,中客车,大客车,小货车 等类别的个数实时统计算法目前的实现为:多目标检测+多目标跟踪目前测试【检测+跟踪】算法可以在 2080Ti上面每秒处理200帧-300帧历史视频数据算法已经移植到C++版本,运行性能很高。547691062@qq.com...原创 2020-10-19 15:40:47 · 8369 阅读 · 2 评论 -
汇总|目标检测中的数据增强、backbone、head、neck、损失函数
一、数据增强方式random erase CutOut MixUp CutMix 色彩、对比度增强 旋转、裁剪解决数据不均衡:Focal loss hard negative example mining OHEM S-OHEM GHM(较大关注easy和正常hard样本,较少关注outliners) PISA二、常用backboneVGG ResNet(ResNet18,50,100) ResNeXt DenseNet SqueezeNet Darkn原创 2020-05-26 13:34:00 · 3446 阅读 · 1 评论 -
快速在安卓端验证深度学习算法模型
原https://zhuanlan.zhihu.com/p/76909819https://zhuanlan.zhihu.com/p/769098191、背景 前段时间在知乎上溜达,看到糖心他爸大神的专栏-实战嵌入端的AI算法,进去一看,不得了,发现新大陆了,深度学习模型还能在安卓端这么玩的吗? 一般对我们这种初级炼丹师,要验证算法在端上的能力以及实测效果...原创 2019-12-12 16:33:17 · 842 阅读 · 0 评论 -
EfficientNet论文解读
https://zhuanlan.zhihu.com/p/70369784https://zhuanlan.zhihu.com/p/70369784https://zhuanlan.zhihu.com/p/70369784论文链接:EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks代...原创 2019-11-26 16:37:48 · 816 阅读 · 0 评论 -
EfficientNet google 机器自学习出的优秀框架
简介该论文提出了一种新的模型缩放方法,它使用一个简单而高效的复合系数来以更结构化的方式放大 CNNs。 不像传统的方法那样任意缩放网络维度,如宽度,深度和分辨率,该论文的方法用一系列固定的尺度缩放系数来统一缩放网络维度。 通过使用这种新颖的缩放方法和 AutoML[5]技术,作者将这种模型称为 EfficientNets,它具有最高达10倍的效率(更小、更快)。区别第一处...原创 2019-10-30 15:07:45 · 843 阅读 · 0 评论 -
Attention 机制
SENet 详解https://blog.csdn.net/xjz18298268521/article/details/79078551图解1.基础网络结构2.各阶段计算方式公式3.结构图:简介为了更清楚地介绍计算机视觉中的注意力机制,这篇文章将从注意力域(attention domain)的角度来分析几种注意力的实现方法。其中主要是...原创 2019-10-29 11:13:30 · 1750 阅读 · 1 评论 -
data augment
the random croppingrandomly modifying the brightness, contrast, saturation and hue of the cropped image randomly.原创 2018-12-11 18:52:14 · 439 阅读 · 0 评论 -
技巧只能源码找?李沐带你纵览卷积网络实战中的惊艳技艺
自 2012 年 AlexNet 大展神威以来,研究者已经提出了各种卷积架构,包括 VGG、NiN、Inception、ResNet、DenseNet 和 NASNet 等,我们会发现模型的准确率正稳定提升。但是现在这些提升并不仅仅来源于架构的修正,还来源于训练过程的改进:包括损失函数的优化、数据预处理方法的提炼和最优化方法的提升等。在过去几年中,卷积网络与图像分割出现大量的改进,但大多数在文...转载 2018-12-11 10:50:37 · 299 阅读 · 0 评论 -
2017年的 计算机视觉 发展
1.计算机视觉对于计算机视觉领域来说,贡献最大的当然是 CVPR 与 ICCV,其它如 IJCAI 等也有相关主题的获奖论文。这些获奖论文具体研究的方向主要有目标检测、图像标注、图像生成、语义分割、卷积神经网络架构等方面。今年唯一以研究卷积架构为主题的获奖论文是康奈尔与清华大学联合完成的 Densely Connected Convolutional Networks,他们发现如果卷积神经网络...原创 2018-05-16 10:20:00 · 986 阅读 · 0 评论 -
NCNN简单入门及安装
1.概述ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。ncnn 从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行,开发出人工智能 APP,将 AI 带到你的指尖。ncnn 目前已在腾讯多款应用中使用,如QQ,Qzone,微信,天天P图等。 2.功能...原创 2019-02-13 14:24:30 · 5931 阅读 · 1 评论 -
深度学习用于图像压缩
CHALLENGE ON LEARNED IMAGE COMPRESSION 挑战赛由 Google、Twitter、Amazon 等公司联合赞助,是第一个由计算机视觉领域的会议发起的图像压缩挑战赛,旨在将神经网络、深度学习等一些新的方式引入到图像压缩领域。据 CVPR 大会官方介绍,此次挑战赛分别从 PSNR 和主观评价两个方面去评估参赛团队的表现。不久之前,CLIC 挑战赛比赛结果公布:在...转载 2018-06-24 13:35:53 · 8244 阅读 · 7 评论 -
开源:深度学习模型和姿态估计代码开源代码推荐,人工智能教程
开源:深度学习模型和姿态估计代码开源代码推荐,人工智能教程(趣说人工智能编译,来源modelzoo)。姿态估计的任务旨在将RGB图像或视频的人像素映射到人体的3D表面。姿态估计是一个多任务任务,并涉及其他几个问题:物体检测,姿态估计,分割等。姿态估计的应用包括需要超越简单地标定位的问题,如图形,增强现实(AR)或人机交互(HCI)。姿态估计还涉及基于3D的物体识别的许多方面。在这篇文章中,我...转载 2018-06-27 10:54:04 · 3937 阅读 · 1 评论 -
caffe 读取caffemodel的参数 C++
1.配置 protobuf 的 include 目录2.配置 protobuf的库目录3.拷贝 caffe 源码生成的 caffe.pb.cc 和caffe.pb.h 文件到 当前工程目录。 (注意 protobuf 库 跟caffe 版本要匹配)4.读取代码#include "caffe.pb.h"#include <fstream>int getParame...原创 2018-07-04 09:10:39 · 2554 阅读 · 2 评论 -
当前训练神经网络最快的方式:AdamW优化算法+超级收敛
最优化方法一直是机器学习中非常重要的部分,也是学习过程的核心算法。而 Adam 自 14 年提出以来就受到广泛关注,目前该论文的引用量已经达到了 10047。不过自去年以来,很多研究者发现 Adam 优化算法的收敛性得不到保证,ICLR 2017 的最佳论文也重点关注它的收敛性。在本文中,作者发现大多数深度学习库的 Adam 实现都有一些问题,并在 fastai 库中实现了一种新型 AdamW ...转载 2018-07-06 15:25:39 · 15463 阅读 · 0 评论 -
局部响应归一化LRN(Local Response Normalization)理解
1、其中LRN就是局部响应归一化:这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一中处理方法。 AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很深很宽的网络中。AlexNet主要使用到的新技术点如下。(1)成功使用ReLU...原创 2018-05-28 10:41:13 · 5187 阅读 · 0 评论 -
ArcFace Additive Angular Margin Loss for Deep Face Recognition 阅读笔记
这篇论文的成果在 MegaFace 百万人脸识别挑战中,获得了state-of-art的效果,可以说是CNN在人脸领域的又一进步。它的优势主要有3点:使用了Additive Angular Margin,在对feature 和 weights进行了L2 normalization的基础上,再计算决策边界时使用cos(θ+mθ+m) 函数,比起以前的loss function,可以得到more ...转载 2018-07-09 15:37:43 · 2038 阅读 · 0 评论 -
Focal Loss for Dense Object Detection
Focal Loss 图CE :Cross EntropyFL :Focal Loss 该loss 解决的问题:解决数据不平衡问题。 因为 (1-pt)r 对Loss有缩放作用,使 解近正确好分的样本的 Loss值接近于0,从而减小反向梯度的传播。即使某一类有很多容易区分的样本也不会使 模型有太多偏移。Focal Loss 的形式不是唯一的,只要满足上面的缩放原理 都可作为...原创 2018-10-31 16:33:46 · 227 阅读 · 0 评论 -
CNN训练 杂谈
PReLU的a是学习得到,RReLU的a是随机采样变换。在测试中是固定。 PCA白化的一个缺点是会增加数据中的噪声,因为它把输入数据的所有维度都延伸到相同的大小,这些维度中就包含噪音维度(往往表现为不相关的且方差较小)。这种缺点在实际操作中可以通过把1e-5增大到一个更大的值来引入更强的平滑。...原创 2018-11-09 16:11:53 · 249 阅读 · 0 评论 -
python 画 ROC 曲线
python 画 ROC 曲线的实现代码import numpy as npimport matplotlib.pyplot as pltfrom sklearn.metrics import auc ###计算roc和aucimport pandas as pdbase = "D:\\WFLW\\wflw_blur_128\\ROC\\"df =pd.read_csv(...原创 2018-10-16 10:31:22 · 8332 阅读 · 7 评论 -
级联 MobileNet-V2 实现人脸关键点检测(附训练源码)
MobileNet-V2 是一个性能极佳的轻量化模型,可以采用较少的参数获得较好的性能;同时,级联的操作可达到从粗到精的关键点定位。摘要:为了能在移动端进行实时的人脸关键点检测,本实验采用最新的轻量化模型——MobileNet-V2 作为基础模型,在 CelebA 数据上,进行两级的级联 MobileNet-V2 实现人脸关键点检测。首先,将 CelebA 数据作为第一级 MobileN...转载 2018-08-20 09:31:29 · 6132 阅读 · 1 评论 -
Android端调用 深度学习模型实现CNN分类
一.移动端深度学习的几种实现方式(1)Caffe的移动端编译项目caffe(命令式框架)算是在国内最流行的深度学习开源框架,使用它进行商业,研究的人很多。对于移动端的实现,也有开源项目对caffe进行了移植。 项目连接如下:android-lib android-demo我认识的很多科研院所的朋友以及百度这种大公司他们,在移动端的本地项目中也使用了caffe-android,证明...转载 2018-07-16 10:49:18 · 6330 阅读 · 0 评论 -
Caffe LSTM 实现mnist识别
基础理解 假如 Caffe训练网络的网络结果如下所示: 相关术语及变量维度关系 N为LSTM同时处理的独立流的个数(Batch size),在该实验中为输入LSTM相互独立的视频的个数,以该实验测试网络为例,本文取T=3。 T为LSTM网络层处理的时间步总数(LSTM的时间步,即循环次数),在该实验中为输入LSTM的任意一独立视频的视频帧个数,以该实验测试网络为例,本文...原创 2018-07-15 17:24:09 · 3502 阅读 · 9 评论 -
Center Loss caffe 实现
Center Loss ECCV2016提出的center loss是通过将特征和特征中心的距离和softmax loss一同作为损失函数,使得类内距离更小,有点L1,L2正则化的意思。核心内容如下图所示:接下来详细介绍center loss。如果你还是不熟悉传统的softmax loss,那么先来看看传统的softmax loss。首先区分softmax和softmax loss...原创 2018-07-15 10:19:38 · 1497 阅读 · 2 评论 -
理解 LSTM 网络
Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。传统的神经网络并不能做到这点,看起来也像是一种巨大的弊端。例如,假设你希望对电影中的每个时间点的时间类型进行分类。传统的神...转载 2018-07-13 09:14:35 · 449 阅读 · 0 评论 -
FCN全卷积网络上采样理解
FCN全卷积网络将网络的全连接层变成卷积层之后整个网络变成了只有卷积层和池化层的网络,于是网络就称之为全卷积网络。全卷积网络一般是用来对图像进行语义分割的,于是就需要对图像上的各个像素进行分类,这就需要一个上采样将最后得到的输出上采样到原图的大小。上采样的过程也类似于一个卷积的过程,只不过在卷积之前将输入特征插值到一个更大的特征图然后进行卷积。下面举例子说明这个过程。上采样利用的...转载 2019-03-27 10:15:46 · 1398 阅读 · 0 评论 -
Flops计算方式
看到有人对flops有疑惑,先捋清这个概念。FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。网上打字很容易全...原创 2019-03-27 10:50:06 · 10453 阅读 · 1 评论 -
别人家的高中生:入大学前,Ta详细梳理了GAN的发展脉络
https://www.jiqizhixin.com/articles/19062302https://blog.floydhub.com/gans-story-so-far/有人「高考」完还在学习,说出来你可能不信。昨天,reddit 上出现了一个关于梳理GAN发展脉络的博客,作者在博客中详细梳理了过去几年的 GAN 发展历程,包含众多 SOTA 论文及其代码和对应的学习资源。难...转载 2019-07-01 15:09:33 · 339 阅读 · 0 评论 -
Pytorch的C++使用
利用Pytorch的C++前端(libtorch)读取预训练权重并进行预测https://blog.csdn.net/iamoldpan/article/details/85057238https://blog.csdn.net/a819411321/article/details/97372177pytorch 参数写入二进制文件 data = [] ...原创 2019-10-09 15:13:22 · 403 阅读 · 0 评论 -
跳出公式,看清全局,图神经网络(GCN)原理详解
http://www.sohu.com/a/342634291_651893https://blog.csdn.net/guotong1988/article/details/82628156GCN问世已经有几年了(2016年就诞生了),但是这两年尤为火爆。本人愚钝,一直没能搞懂这个GCN为何物,最开始是看清华写的一篇三四十页的综述,读了几页就没读了;后来直接拜读GCN的开山之作,也是读到...原创 2019-09-23 09:55:49 · 5056 阅读 · 3 评论 -
Spatial Transformer Networks (STN 网络用于对齐目标)
https://www.cnblogs.com/liaohuiqiang/p/9226335.htmlhttps://www.cnblogs.com/liaohuiqiang/p/9226335.htmlhttps://www.cnblogs.com/liaohuiqiang/p/9226335.html2015, NIPSMax Jaderberg, Karen Simonyan, ...原创 2019-09-18 15:45:12 · 801 阅读 · 0 评论 -
YOLO v3网络结构分析
https://blog.csdn.net/qq_37541097/article/details/81214953Darknet:Yolo V3原创 2019-08-30 10:12:52 · 375 阅读 · 0 评论 -
决策树相关算法详细分析
决策树https://www.jianshu.com/p/b7ed99796199随机森林https://www.jianshu.com/p/d1d8de1e0608GDBT 梯度提升树https://www.jianshu.com/p/42e382732244原创 2019-08-22 15:41:43 · 515 阅读 · 0 评论 -
26秒单GPU训练CIFAR10,Jeff Dean也点赞的深度学习优化技巧
https://www.jiqizhixin.com/articles/2019-08-20-15?from=synced&keyword=26%E7%A7%92%E5%8D%95GPU%E8%AE%AD%E7%BB%83CIFAR10https://www.jiqizhixin.com/articles/2019-08-20-15?from=synced&keyword...原创 2019-08-21 10:00:04 · 592 阅读 · 0 评论 -
深度学习-笔记
如何解决训练样本少的问题目前大部分的深度学习模型仍然需要海量的数据支持。例如 ImageNet 数据就拥有1400多万的图片。而现实生产环境中,数据集通常较小,只有几万甚至几百个样本。这时候,如何在这种情况下应用深度学习呢?(1)利用预训练模型进行迁移微调(fine-tuning),预训练模型通常在特征上拥有很好的语义表达。此时,只需将模型在小数据集上进行微调就能取得不错的效果。这也是目前大...原创 2019-08-08 16:39:52 · 914 阅读 · 0 评论 -
交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)
https://zhuanlan.zhihu.com/p/74075915目录:信息量 熵 相对熵(KL散度) 交叉熵 JS散度 推土机理论 Wasserstein距离 WGAN中对JS散度,KL散度和推土机距离的描述写在前面的总结:1、目前分类损失函数为何多用交叉熵,而不是KL散度。首先损失函数的功能是通过样本来计算模型分布与目标分布间的差异,在分布差异计算中,K...原创 2019-08-01 09:32:49 · 3438 阅读 · 3 评论 -
CNN网络构建问题
构建CNN网络需要注意问题数据预处理(均值,方差, 人脸归一化。。。), 数据增强【放射变换、运动模糊、高斯滤波模糊类,增加噪声类, 色彩/饱和度/亮度调整类、 Flip类,Crop类】 这些都是根据实际的应用场景选择。1.参数多少问题 [卷积核大小,通道数,卷积方式:conv / depthwiseconv / 空洞卷积 激活函数 PRelu]2.Flops计算量问题 【参数...原创 2019-08-02 17:40:40 · 535 阅读 · 0 评论