DL/ML/AI
文章平均质量分 94
yuanlulu
做过嵌入式Linux开发、深度学习平台开发。擅长c++和python。
展开
-
tensorflow 11:双隐层+softmax回归实现mnist图片识别
概述上篇文章讲到的sofmax回归,除了输入层,只有线性层+sofmax,这两者合起来可以被称为输出层。没有中间的隐藏层。本文介绍在sofmax回归基础上增加两层隐藏层的方法。本文的主要参考来自参考资料里的《TensorFlow运作方式入门》和《TensorFlow实现双隐层SoftMax Regression分类器》。主要代码来自tensorflow源码目录下的例程mnist.py。借...原创 2018-10-06 17:18:54 · 3027 阅读 · 0 评论 -
深度学习中的Batch Normalization
动机我们知道在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢?归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度,这也正是为什么我们需要...原创 2018-11-17 16:09:28 · 419 阅读 · 0 评论 -
深度学习中的组归一化(GroupNorm)
批归一化(BN)的缺点BN 需要用到足够大的批大小(例如,每个工作站采用 32 的批量大小)。一个小批量会导致估算批统计不准确,减小 BN 的批大小会极大地增加模型错误率。加大批大小又会导致内存不够用。归一化的分类BN,LN,IN,GN从学术化上解释差异:BatchNorm:batch方向做归一化,算N*H*W的均值LayerNorm:channel方向做归一化,算C*H*W的均值...原创 2018-11-17 17:45:48 · 16193 阅读 · 1 评论 -
这就是神经网络 4:ResNet-V1、ResNet-V2、ReNeXt、SENet
ResNet-V1(2015)ResNet在ILSVRC 2015分类任务上赢得了第一名。ResNet在主要是为了解决深度网络的退化问题。退化问题是指,随着网络深度的增加,准确率达到饱和(这可能并不奇怪)然后迅速下降。这并不是由过拟合引起的,因为训练准确率也下降了。考虑在一个浅层网络上增加恒等映射成为一个更深版本的网络,更深的模型不应当产生比它的浅层版本更高的训练错误率。作者的思路就是产生...原创 2018-12-05 21:05:25 · 8065 阅读 · 0 评论 -
tensorflow 20:搭网络、导出模型、运行模型
概述以前自己都利用别人搭好的工程,修改过来用,很少把模型搭建、导出模型、加载模型运行走一遍,搞了一遍才知道这个事情也不是那么简单的。搭建模型和导出模型参考《TensorFlow固化模型》,导出固化的模型有两种方式.方式1:导出pb图结构和ckpt文件,然后用 freeze_graph 工具冻结生成一个pb(包含结构和参数)在我的代码里测试了生成pb图结构和ckpt文件,但是没接着往下走,...原创 2018-12-12 19:59:04 · 4905 阅读 · 0 评论 -
这就是神经网络 3:NIN,Inception-V1,Inception-V2,Inception-V3, Inception-V4
NIN (2014)NIN全称是‘Network In Network’。这篇论文主要有两个改进思路:MLPconv和全局平均池化。MLPconv全称是multilayer perceptron convolution layer(直译为:多层感知机卷积层),也就是普通卷积层+1x1卷积+ReLU激活函数。NIN中的MLPconv是对conv+relu的改进,conv+relu构建的是一个一...原创 2018-12-03 21:18:22 · 4717 阅读 · 0 评论 -
这就是神经网络 5:轻量化神经网络--MobileNet V1、MobileNet V2、ShuffleNet V1、ShuffleNet V2
概述深度神经网络模型被广泛应用在图像分类、物体检测等机器视觉任务中,并取得了巨大成功。然而,由于存储空间和功耗的限制,神经网络模型在嵌入式设备上的存储与计算仍然是一个巨大的挑战。本文介绍几个经典的人工设计的轻量化神经网络模型。(当然也有其它方法对已有的网络模型进行压缩,甚至自动学习设计紧凑的网络模型,本文不涉及这部分)轻量化神经网络牵涉到的基础知识(如分组卷积、1x1点卷积、深度卷积(dep...原创 2018-12-06 23:59:38 · 9642 阅读 · 1 评论 -
tensorflow 21:用python转换tflite模型并在PC上调用
概述想玩玩tflite,无奈对android开发环境不熟。经过搜索找到了在PC上python下调用tflite模型的方法。环境python3.6tf-nightly 1.13win10 64位i7 8550U制作frozen模型模型制作参考前面的一篇博客《tensorflow 20:搭网络、导出模型、运行模型》。主要就是两层卷积和两层全连接用来识别mnist数据集,保存为fro...原创 2019-01-04 00:11:06 · 27870 阅读 · 90 评论 -
超详细:自制yolo3训练数据集总结
概述本文总结yolo作者实现的darknet版本的yolo3训练数据集格式。数据集文件目录最终数据集需要3个文本文件和2个目录: train.txt # 文本文件,保存训练图片目录列表 test.txt # 文本文件,保存测试图片目录列表 class.names # 文本文件,保存分类名称 labels # 目录,保存每个图片的边界框和分类信息 ...原创 2018-12-25 21:54:05 · 9501 阅读 · 6 评论 -
英特尔OpenVINO深度学习框架--ubuntu16.04上的安装手记
概述OpenVINO是intel的深度学习工具框架,本质是一个支持intel各种硬件(CPU、集显、FPGA和Movidius VPU)的推理机。这个工具本身不做训练,但是可以把其它深度学习框架(如 Caffe, TensorFlow, MXNet)训练的模型文件转化为自己支持的格式。所以OpenVINO分为两部分(github上源码也分为这么两个目录):Inference Engine...原创 2019-01-23 23:06:19 · 9607 阅读 · 2 评论 -
这就是神经网络 2:VGG论文翻译(大部分)
概述非常喜欢VGG这篇论文,内容写的层层递进,逻辑严密。对多尺度及深度的探讨很经典。奈何别人的翻译十分拗口,总是感觉理解不透。只好自己反复阅读,把最精彩的多尺度及实验部分翻译一下。翻译过程尽量使用国人能懂的方式,宁愿以中国人的思维重写也不使用机器翻译的结果,过程中反复推敲,修改了部分啰嗦的定语和不易懂的表达方式。不喜欢‘我亲爱的老伙计‘、’你这该死的’这种假翻译。翻译就应该让人感觉不出这是翻...原创 2018-11-23 19:53:02 · 3260 阅读 · 1 评论 -
这就是神经网络 1:早期分类网络之LeNet-5、AlexNet、ZFNet、OverFeat、VGG
概述本系列文章计划介绍总结经典的神经网络结构,先介绍分类网络,后续会包括通用物体检测、语义分割,然后扩展到一些相对较细的领域如人脸检测、行人检测、行人重识别、姿态估计、文本检测等。一些经典网络的年代、性能及参数趋势如下表所示:LeNet-5 (1998)LeNet-5来自Yann LeCun在1998年的论文,这个网络用于识别手写数字。作者有个很出名的数据集MNIST,也是本论文用到的...原创 2018-11-21 18:13:52 · 4380 阅读 · 1 评论 -
tensorflow 12:双隐层+softmax回归实现mnist图片识别之二
概述tensorflow的自带例程用两个文件演示了“全连接层+softmax回归”实现mnist图片识别的功能。一个文件是mnist.py,在之前一篇文章《tensorflow 11:双隐层+softmax回归实现mnist图片识别》已经介绍过了。不过mnist.py侧重搭建计算图,没有调用过程。本文讲解fully_connected_feed.py这个文件,主要讲解调用过程相关的知识点。f...原创 2018-10-07 00:44:23 · 2464 阅读 · 0 评论 -
tensorflow 9. 参数解析和经典入口函数tf.app.run
概述本文总结两种参数解析的接口,一种是python的参数解析包自带的功能,使用时需要import argparse。另一类是tensorflow自带的功能,解析时import tensorflow就行了。python中的参数解析parse_known_args的例子tensorflow下的一个例子tensorflow/examples/tutorials/mnist/mnist_deep...原创 2018-10-07 00:51:03 · 2332 阅读 · 0 评论 -
tensorflow 13:tensorboard可视化
概述如前篇博文《tensorflow 12:双隐层+softmax回归实现mnist图片识别之二》所写,可以将训练的计算图和训练中的状态信息写入一个日志文件,采用tensorboard实时查看,也可以事后查看。权重(w和b)、度量(loss、accuracy)、超参和其它统计信息,都可以写入tensorboard的事件日志文件。一些常亮也可以写入。除了计算图结构,tensorboard汇总的...原创 2018-10-08 09:17:37 · 2948 阅读 · 0 评论 -
Tesseract-OCR批量标注及合并数据集的一种思路
背景Tesseract标注训练最根本的文件是两个:tiff文件(存储图片)及box文件(标注字符值和位置)一般tiff用命令合成,box文件用jTessBoxEditor生成。背景知识参考前一篇博客,可以用python读写tiff文件。另外box每一行的格式如下(6个元素):tag x y w h frame-numtag即OCR识别后的字符的值,(x,y,w,h)是左上角坐标及长...原创 2018-10-22 22:25:38 · 4270 阅读 · 0 评论 -
tensorflow 15:使用卷积和pool识别MNIST数据集
概述前面的博文讲到的是全连接识别MNIST。这篇博客主要讲解使用卷积和池化(POOL)来和别MNIST。牵涉的代码来自tensorflow的源码工程,目录是:tensorflow\examples\tutorials\mnist\minist_deep.py。源码中构建的计算图前向推断结构如下:graph LR输入数据-->卷积层1卷积层1-->POOL1POOL1--&...原创 2018-10-29 17:25:41 · 1372 阅读 · 0 评论 -
tensorflow 16:数据读取(以cifar10_input.py为例)
数据读取概述TensorFlow程序读取数据一共有3种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。目前我用过的主要是第一种,就是提供fee...原创 2018-11-05 20:45:25 · 5681 阅读 · 3 评论 -
tensorflow 17:搭建图片分类计算图(cifar10.py)
概述书接上回,继续讲cifar10的例子,这次讲cifar10.py。代码在https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10cifar10.py速览这个文件主要包含以下几个部分:读取数据搭建前向预测计算图搭建loss搭建train下载cifar10数据集并解压这个文件的代码没有搭建...原创 2018-11-05 20:48:10 · 1072 阅读 · 0 评论 -
tensorflow 18:cifar10图片分类训练(cpu或单gpu)
概述接着前面几篇博客讲cifar10的训练,本文牵涉的代码文件主要是cifar10_train.py。仔细看前面的cifar10.py就会发现,所有变量都被声明放在cpu上,如参考资料里的《卷积神经网络》所说,这是为了多个GPU上共享变量。只有train部分的节点没指定设备,如果有gpu的话训练还是默认在gpu上,其他部分都在cpu上。代码分解命令行选项参数FLAGS = tf.app....原创 2018-11-06 00:48:38 · 2258 阅读 · 0 评论 -
tensorflow 19: tflite 概念理解
概述学术界对精度、自由度的要求和工业界对速度、精简度的要求形成了反差,这就使得越来越多的框架开始把training和inference分开,各公司都开始针对移动设备纷纷推出高性能inference库。tflitetflite其实就是谷歌自己的一个轻量级推理库。主要用于移动端。之前的tensorflow mobile那一套到2019年就不再维护了。tflite使用的思路主要是从预训练的模型转...原创 2018-11-14 11:24:53 · 20028 阅读 · 9 评论 -
Facebook开源高性能内核库QNNPACK_笔记
PDOT简介卷积可以分解成一种名为 im2col 的内存布局转换和矩阵相乘的组合。因此,卷积神经网络中的有效推理问题很大程度上可以看做矩阵乘法的有效实现问题——在线性代数库中也称为 GEMM。当前的处理器上,这一实现会受到内存和缓存带宽,而不是乘-加单元计算力的限制。但一个小小的修改——同时计算几行 A 和几行 B 的点积——却使得性能大大提升。修改后的基元加载 A 的 MR 及 B 的 ...原创 2019-01-24 16:00:51 · 1378 阅读 · 0 评论 -
在树莓派3B+上编译ncnn并用benchmark和mobilenet_yolo测试
步骤安装git和cmake$ sudo apt-get install git$ sudo apt-get install cmake安装protocobuf和其它依赖项这段命令参考自《树莓派3B完成ncnn框架测试》sudo apt-get install -y gfortransudo apt-get install -y libprotobuf-dev libleveldb-...原创 2019-01-09 18:07:44 · 5901 阅读 · 8 评论 -
这就是神经网络 15:深度学习-人脸检测-MTCNN
概述MTCNN是一个基于级联卷积神经网络的人脸检测和人脸对齐算法。其英文题目《Joint Face Detection and Alignment usingMulti-task Cascaded Convolutional Networks》。本文原始的创意来自《A Convolutional Neural Network Cascade for Face Detection》,有人称它为...原创 2019-04-21 18:47:32 · 3996 阅读 · 1 评论 -
目标检测中的检测框合并策略:NMS和Soft-NMS
概述目标检测中的Region Proposal动辄上千,会形成大量有重合的检测框,需要使用某些算法对检测框去重。常用的两种算法是NMS和Soft-NMS。NMS全称‘非极大值抑制(non maximum suppression)’.算法思想很简单,按照分类概率排序,概率最高的框作为候选框,其它所有与它的IOU高于一个阈值(这是人工指定的超参)的框其概率被置为0。然后在剩余的框里寻找概率第...原创 2019-05-02 17:00:40 · 6581 阅读 · 0 评论 -
自制人脸分割/解析数据集:helen_small4seg(附网盘下载地址)
概述我用原始的helen数据,挑选了部分标注比较好的图片,生成了一个规模较小的人脸解析/分割数据集,放在网盘上供大家下载。原始helen数据集介绍关于helen数据集的介绍,请参考我之前的博客:《人脸解析(Face Parsing)和人体解析Human Parsing:方法、数据集和论文》。helen数据集有2330张图片,每个图片有11个分类: Label 00: backgroun...原创 2019-05-03 17:58:16 · 7944 阅读 · 17 评论 -
这就是神经网络 17:深度学习-评价指标_ROC_mAP
概述本文主要讲述目标检测指标mAP。主要也是自己做这块有段时间,但是这个指标一直没弄的特别清楚。而且网上很多博客写的并不准确,会给人不少舞蹈,希望自己的文章能帮到别人。基础知识true positive, false positive, true negative, false negative本段参考《目标检测的评价指标》,链接见最下方。首先解释一下上面四个词:分类正确的两类:t...原创 2019-05-08 20:45:46 · 9402 阅读 · 2 评论 -
tensorflow 23:从ckpt文件导出固化PB文件
概述需要从ckpt文件生成固化的PB文件,给生成现场用。现在我探索下不依赖代码里的网络结构、仅仅用CKPT文件来生成PB文件。转化训练生成的ckpt文件目录如下:$ ls ./ckpt0507/checkpoint graph.pbtxt model.ckpt-3251.data-000...原创 2019-05-09 20:02:15 · 2947 阅读 · 3 评论 -
基于语义分割的身份证部件解析和文字检测
概述这个工作主要是利用人脸解析项目的算法,探索一下语义分割的功能。安排实习生利用合成的身份证照片进行了语义分割的标注。我的目的有两个:1.检测身份证上的信息是否齐全;2.确定身份证各文字信息的位置,把文字抠出来给OCR程序。基于opencv的算法之前写过一篇文章《python_opencv–身份证文字区域检测》,利用opencv的接口进行二值化,然后找出所有的阴影对应的外接矩形。这个方法...原创 2019-05-10 18:09:42 · 4988 阅读 · 9 评论 -
项目实践中对语义分割网络DeepLabV3+的改进
概述最近用deepv3+做了一些语义分割的工作,从github上下载了别人实现的tensorflow实现。发现速度不能满足需求,所以本人对deepv3+做了一些改进。原始的网络结构下图左侧是DeepLabV3的结构,中间是U-Net风格的编解码结构,最右侧就是DeepLabV3+的结构。和V3相比,V3+融合了一次底层特征图(主干网络也换了,但是这里体现不出来)。改进方向替换backb...原创 2019-05-15 21:20:32 · 11259 阅读 · 15 评论 -
这就是神经网络 18:深度学习-文字识别OCR-CRNN
概述在之前项目中用过CRNN做OCR,我在这里记录一下我对这个算法的理解,我没有对比代码去看,主要结合别人的博客略读论文。声明一下,主要参考了文末的《一文读懂CRNN+CTC文字识别》这篇文章,基本讲的非常易懂。另外,本算法的难点在于CTC的理解, 基本上参考文末的《Sequence ModelingWith CTC》这篇文章能够比较好的有个理解,参考资料里的另一篇博客《CTC算法详解》基本...原创 2019-05-15 21:34:42 · 12626 阅读 · 4 评论 -
深度学习-文档检测方案整理
概述这里梳理一下之前收集的几篇关于文档检测的文章,由于一些特殊的原因,最近可能都没机会去实践这些知识了,只能略读归纳一下。在识别纸质文档的第一步,一般首先要识别文档区域,也就是定位出文档4个角的坐标,然后拉伸文档区域,还原宽高比,接着后续的OCR流程。本文主要记录一些文档区域检测方面的文章。网易的方案网易的有道笔记用到了文档检测技术,主要信息披露自以下两篇博客:有道云笔记是如何使用T...原创 2019-06-20 16:40:25 · 3919 阅读 · 1 评论 -
这就是神经网络 14:深度学习-目标检测-YOLOv1、YOLOv2、YOLOv3
YOLOYOLO是与SSD齐名的one_stage目标检测算法代表。SSD系列有比较多的变体,大部分都不是SSD作者做的工作。而YOLO目前已经进化到V3,据我所知都是yolo作者自己做的工作。网络结构由于yolo属于one_stage的目标检测算法,所以网络结构比较简单。固定输入448x448大小的图片,最后输出7x7x30大小的特征图。作者的主干网络受GoogLeNet的启发,共有...原创 2019-04-15 20:21:28 · 8367 阅读 · 1 评论 -
这就是神经网络 13:语义分割loss函数和评价指标
序最近刚刚完成自己规划的语义分割部分论文阅读,算是一个小结吧。语义分割的LOSS函数语义分割对像素的分类,可以用交叉熵作为loss函数。但是语义分割也有自己的特殊性,整个环面中前景物体有时会有较小的占比(比如医学图像中的病灶),这时需要加大前景(或缝隙)的权重,使训练过程更容易学到有用的特征。比如WBE Loss是U-Net引入的,对边界像素对应的loss加大权重,使之对边界更敏感。fo...原创 2019-04-02 21:04:27 · 4319 阅读 · 0 评论 -
MTCNN人脸及特征点检测--基于树莓派3B+及ncnn架构
概述本文尝试在树莓派3B+上用ncnn框架测试MTCNN。ncnn的基本编译和使用请参考《在树莓派3B+上编译ncnn并用benchmark和mobilenet_yolo测试》。本文在这个博客基础上进行操作。操作步骤下载mtcnn从mtcn-ncnn项目中下载mtcnn子目录,把这个目录放在最新的ncnn源码目录下添加对mtcnn的支持修改ncnn最顶层的CMakeList.txt,...原创 2019-01-15 20:39:23 · 8259 阅读 · 10 评论 -
这就是神经网络 6:SqueezeNet和Xception
概述之前也写博客介绍过轻量化神经网络架构:《集异璧-神经网络结构 5:轻量化神经网络–MobileNet V1、MobileNet V2、ShuffleNet V1、ShuffleNet V2》。但是那篇文章没有包含SqueezeNet和Xception。这次把这两个网络补上。SqueezeNet (2017)SqueezeNet 由伯克利&斯坦福的研究人员合作发表于 ICLR-2...原创 2019-01-28 22:01:16 · 2474 阅读 · 0 评论 -
这就是神经网络 7:深度学习-目标检测-超详细图解Faster R-CNN
本文动机说实话,介绍Faster R-CNN的文章我看了很多,论文的英文原文和翻译都看过,我知道two-statge和anchor的主要思想,可是我脑子里始终没法建立一个完整的Faster R-CNN的框架,有太多的细节没有搞清楚,每个步骤的tensor是什么维度?这些维度是什么含义?第二阶段的坐标回归和第一阶段一样吗?有太多的细节让我疑惑不已。别人的文章讲的都是别人建立了整体概念以后的细节分解...原创 2019-02-06 21:43:28 · 7010 阅读 · 1 评论 -
这就是神经网络 9:深度学习-语义分割-FCN、U-Net、SegNet
FCN简介FCN全称是‘Fully Convolutional Networks’,也就是全卷积网络。这个网络去掉了全连接层,网络结构里只有卷积(池化和反卷积)操作。本文的FCN特指这个语义分割网络,而非广义的全卷积网络。作者在论文里说,这是第一个可以端到端训练、输出像素级预测(pixels-to-pixels)语义分割网络,它可以处理任意大小的图片输入。本网络使用上采样层进行预测,使用降采...原创 2019-03-02 21:36:00 · 10453 阅读 · 0 评论 -
rk3399+ubuntu:基于深度学习框架ncnn对比clang和gcc性能
编译方式修改toolchains/aarch64-linux-gnu.toolchain.cmake,内容如下:# set cross-compiled system type, it's better not use the type which cmake cannot recognized.SET ( CMAKE_SYSTEM_NAME Linux )SET ( CMAKE_SYST...原创 2019-02-26 22:09:05 · 5346 阅读 · 8 评论 -
人脸解析(Face Parsing)和人体解析Human Parsing:方法、数据集和论文
人脸解析人脸解析(Face Parsing)即把人脸的各个部分分割出来。下图左侧是原图,中间是标注,右侧是我输出的结果:这方面网上资料不多,论文也不火,很少看到商用的。目前看到华为有提供这个功能。华为人脸解析地址:https://developer.huawei.com/consumer/cn/hiai/engine/face-parsing人脸解析可预见的应用场景就是虚拟试妆,或者电...原创 2019-03-15 18:21:20 · 25363 阅读 · 5 评论