Deep Learning
文章平均质量分 54
非文艺小燕儿_Vivien
人工智能算法研究学习中,期待大家一起分享交流学习,一起进步。
e-mail:vivienfu@163.com
QQ:1002069759
展开
-
1.MNIST库之初探---下载和读取图片
MNIST使用原创 2016-11-30 22:47:50 · 7736 阅读 · 2 评论 -
人脸检测和对齐--MTCNN训练1--P-net
采用数据集:人脸检测和人脸框回归:WIDER_FACE特征点标定:Celeba(P-net未使用)P-net:P-net的任务是人脸检测和人脸框回归,所以该阶段仅需要使用WIDER FACE数据集。(1)取候选窗,生成训练图片下载的原始数据集并不能直接用于训练,而是在原始图像上截取候选框图像。随机截取候选框,根据IoU计算候选框所属类别,并将其resize到12*1原创 2017-06-23 10:29:23 · 9862 阅读 · 1 评论 -
CNN卷积神经网络手写数字识别实例及代码详解
本文的代码来自githup的Deep Learning的toolbox,是用Matlab实现的。感谢该toolbox的作者付出和分享。我在应该该代码进行训练时,出现一些报错,如expand函数应用不对,flipall函数未定义等问题,对这些问题进行了修正,完成网络训练和验证。本文mnist_uint8.mat的获取可以参照我的另一篇博客:MNIST数据库处理--matlab生成mnist_原创 2016-12-30 22:57:34 · 63984 阅读 · 87 评论 -
Cmake相同源码,编a库OK,编so库提示各种未定义的引用
由于缺少arm小伙伴,我这个对arm一窍不通的小白菜也只好自己动手了。遇到杂七杂八各种问题。捡一点儿记录一下,一呢方便以后在遇到类似问题回顾,另外呢,如果能帮到像我一样的小白菜那就更好了。这次呢,我是用ncnn架构封装人脸相关的算法库。把库源码和示例源码一起编译,生成静态库a库和测试用的可执行文件main,米有问题,测试结果也正确。保持一切不变,只是将add_lib原创 2017-10-25 11:43:08 · 3393 阅读 · 3 评论 -
3D人脸成像技术整理
3D人脸识别则是通过3D摄像头立体成像,能够识别视野内空间每个点位的三维坐标信息,从而使得计算机得到空间的3D数据并能够复原完整的三维世界,并实现各种智能的三维定位。简单的说就是机器获取的信息多了,分析判断的准确性有了极大的提升,人脸识别功能可以分辨出平面图像/视频/化妆/皮面具/双胞胎等状态,适合金融领域和智能手机等安全级别要求高的应用场景。1、三种主流的3D成像技术(1)结构光转载 2017-12-19 17:51:19 · 7832 阅读 · 1 评论 -
caffe分类训练不收敛原因分析
1. 数据和标签数据分类标注是否准确?数据是否干净?另外博主经历过自己创建数据的时候数据标签设置为1,2,...,N,训练的时候最后FC层设置的输出output num为N。训练的时候loss一直不降。后来将标签改为0,1,2,...,N-1,重新训练,很快就收敛了。为啥label需要从0开始?在使用SoftmaxLoss层作为损失函数层的单标签分类问题中,label要求从原创 2017-11-24 12:02:13 · 4729 阅读 · 1 评论 -
写一个基于NEON指令的矩阵乘法(一)
本文转自http://www.jianshu.com/p/68879baa7c1f?from=timeline&isappinstalled=0,作者分析的非常清晰易懂。这是文章的第一部分。阅读后读者应能了解计算机算矩阵乘法与我们自己笔算有何不同,如何根据这些不同来设计最基本的矩阵乘法算法,并扩展成具有标准接口的函数,以及设计算法时值得注意之处。错漏之处欢迎指正。1. 在计算机上转载 2017-12-13 17:41:56 · 7181 阅读 · 0 评论 -
神经网络arm neon加速实现
本文参考整理了以下文章:http://blog.csdn.net/may0324/article/details/72847800http://blog.csdn.net/chshplp_liaoping/article/details/12752749在移动平台上进行一些复杂算法的开发,一般需要用到指令集来进行加速。NEON 技术是 ARM Cortex™-A 系列处理器转载 2017-12-13 17:14:41 · 16593 阅读 · 4 评论 -
CNN 模型压缩与加速算法综述
导语:卷积神经网络日益增长的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,CNN模型压缩与加速成为了学术界和工业界都重点关注的研究领域之一。 作者:姜媚前言自从AlexNet一举夺得ILSVRC 2012 ImageNet图像分类竞赛的冠军后,卷积神经网络(CNN)的热潮便席卷了整个计算机视觉领域。CNN模型火速替代了传统人工设计(hand-crafted)特征和分类转载 2017-11-28 10:10:12 · 684 阅读 · 2 评论 -
常用NEON 内置函数记录备用
float32x4_t _sum1 = vld1q_f32(outptr);//load outptr地址起始的4个float数据到_sum1float32x4_t _sum2 = vdupq_n_f32(0.f);//声明_sum2,存储的四个float32都初始化为0float32x4_t _r02 = vextq_f32(_r00, _r00n, 2)原创 2017-12-15 12:03:33 · 24246 阅读 · 1 评论 -
ncnn常见问题和可优化点备忘
问题1: 目前的实现是每次extract都会重新分配内存,然后下一次预测再重新create extractor,重新分配所有blob的内存吧?这样对于一些持续检测的应用来说,不断的分配回收内存,是不是也存在较大的开销呀有没有选项,可以让ncnn每次预测完后不销毁blob,而是每次都复用,这样可以减少频繁重复调用时malloc和free的开销?从目前的框架上来原创 2018-01-15 09:59:48 · 2875 阅读 · 1 评论 -
Ubuntu caffe训练留log
通过重定向如下:#!/usr/bin/env shTOOLS=/home/caffe/build/toolsLOG=Train_Log_finetune.log$TOOLS/caffe train \--solver=solver.prototxt \--weights=iter_6000.caffemodel \--gpu 2 \2>&1 | tee $LOG原创 2018-01-15 11:11:07 · 767 阅读 · 0 评论 -
MTCNN解读:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks
解读论文为《Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks》基于多任务级联卷积神经网络的人脸检测和对齐论文地址:https://kpzhang93.github.io/MTCNN_face_detection_alignment/本文作者:原创 2017-06-14 11:22:38 · 22450 阅读 · 4 评论 -
CNN训练Cifar-10技巧
关于数据集 Cifar-10是由Hinton的两个大弟子Alex Krizhevsky、Ilya Sutskever收集的一个用于普适物体识别的数据集。Cifar是加拿大政府牵头投资的一个先进科学项目研究所。说白了,就是看你穷的没钱搞研究,就施舍给你。Hinton、Bengio和他的学生在2004年拿到了Cifar投资的少量资金,建立了神经计算和自适应感知项目。这个转载 2017-03-17 11:23:34 · 1919 阅读 · 0 评论 -
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进行优化时,权重的更新规则中,在梯度项前会乘以一个系数,这个系数就叫学习速率η。下面讨论在训练时选取η的策略。固定的学习速率。如果学习速率太小,则会转载 2017-01-28 18:46:18 · 599 阅读 · 0 评论 -
BP神经网络算法学习---基础理论1
本文转自http://blog.csdn.net/acdreamers/article/details/44657439,对于BP基本原理的介绍非常的干净利索清晰,感谢原作者的付出和分享。今天来讲BP神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,模式识别,分类,数据压缩,数据挖掘等领域。接下来介绍BP神经网络的原理及实现。 Contents 1. B转载 2016-12-27 11:04:26 · 17379 阅读 · 1 评论 -
神经网络训练之交叉验证
本文转自http://blog.csdn.net/acdreamers/article/details/44663891,感谢原作者的付出和分享。今天来讲一种在机器学习中常用的精度测试方法,叫做交叉验证。它的目的是得到可靠稳定的模型,具体做法是拿出大部分数据进行建模,留小部分样本用刚刚建立的模型进行预测,并求出这小部分样本预测的误差,记录它们的平方和,这个过程一直进转载 2016-12-27 12:51:08 · 26870 阅读 · 1 评论 -
神经网络训练之数据归一化处理
本文转自http://blog.csdn.net/acdreamers/article/details/44664205,感谢原作者的付出和分享在机器学习中领域中的数据分析之前,通常需要将数据标准化,利用标准化后得数据进行数据分析。不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数转载 2016-12-27 12:54:38 · 65120 阅读 · 8 评论 -
BP神经网络算法学习---处理流程(伪代码)
本文转自http://blog.csdn.net/sealyao/article/details/6538361,并修正其中一些小的错误,补充部分内容,格式稍作调整以便查看和理解。感谢原作者的付出和分享。BP神经网络的基础理论推荐我的另一篇博客,描述干净利索由清晰。BP神经网络算法学习---基础理论1http://blog.csdn.net/fuwenyan/article转载 2016-12-27 13:08:02 · 26757 阅读 · 0 评论 -
神经网络算法学习---图像数据预处理1
以卷积神经网络进行图像识别为例,常用的输入图像预处理Step1:ResizeStep2:去均值。此处应注意,是对所有训练样本图像求均值,然后将每个样本图片减去该均值。待预测图片在进行预处理时,也减去该均值(注意不是减预测图片的均值,而是减去所有训练样本图像的均值)归一化处理:图像处理应用中一般不需要归一化处理,因为RGB通道数据范围一直是0~255,天生是归一化的,因此不需要再原创 2016-12-27 21:27:43 · 14307 阅读 · 1 评论 -
神经网络算法学习---DropOut
前言 训练神经网络模型时,如果训练样本较少,为了防止模型过拟合,Dropout可以作为一种trikc供选择。Dropout是hintion最近2年提出的,源于其文章Improving neural networks by preventing co-adaptation of feature detectors.中文大意为:通过阻止特征检测器的共同作用来提高神经网络的性能。本篇博文就是按照这转载 2016-12-28 21:41:59 · 3600 阅读 · 0 评论 -
神经网络算法学习---mini-batch
Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。首先,为什么需要有 Batch_Size 这个参数?Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好处:其一,由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。其转载 2016-12-28 21:48:04 · 41083 阅读 · 2 评论 -
神经网络算法学习---梯度下降和随机梯度下降
申明:本文非笔者原创,原文转载自:http://www.cnblogs.com/549294286/archive/2012/12/13/2817204.html一、梯度gradienthttp://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6在标量场f中的一点处存在一个矢量G,该矢量方向为f在该点处变化率最大的方向,转载 2016-12-28 21:52:36 · 3434 阅读 · 0 评论 -
神经网络算法学习---获取常用训练数据集
1.MNIST手写数字数据集下载网址:http://yann.lecun.com/exdb/mnist/index.html具体下载和处理方式请参照我的第一篇博客http://blog.csdn.net/fuwenyan/article/details/534150292.CIFAR-10,CIFAR-100下载网址:http://www.cs.toronto.edu/~k原创 2016-12-27 21:38:10 · 28764 阅读 · 1 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training d转载 2017-01-28 18:03:01 · 654 阅读 · 0 评论 -
神经网络之损失函数:方差损失和互熵损失
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲machine learning算法中用得很多的交叉熵代价函数。1.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:其中y是我们期望的输出,a为神经元的实际输出【 a=σ转载 2017-01-28 18:21:42 · 4944 阅读 · 0 评论 -
CVPR | ImageNet冠军模型SE-Net详解
本文转自http://www.sohu.com/a/161793789_642762github地址:https://github.com/hujie-frank/SENet我是Momenta高级研发工程师胡杰,很高兴可以和大家分享我们的SENet。借助我们提出 SENet,我们团队(WMW)以极大的优势获得了最后一届ImageNet 2017竞赛 Image Classification任务的冠...转载 2018-02-09 18:03:36 · 2894 阅读 · 0 评论