深度学习
Modozil
这个作者很懒,什么都没留下…
展开
-
从机器学习谈起
原文出处: 计算机的潜意识在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。这篇文档也算是EasyPR开发的番外篇,从这里开始,必须对机器学习了解才能进一步介绍EasyPR的内核。当然,本文也面对一般读者,不会对阅读有相关的前提要求。在进入正题前,我想读者心中可能会有一个疑惑:机器学习有什么重要性,以转载 2017-01-07 18:55:55 · 505 阅读 · 0 评论 -
LSTM预测时间序列
http://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/http://www.cnblogs.com/arkenstone/p/5794063.htmlhttps://stackoverflow.com/questions/25967922/原创 2017-08-02 21:13:01 · 2262 阅读 · 0 评论 -
机器学习和深度学习提问题的好地方
https://stats.stackexchange.com/https://stackoverflow.com/questions/32514704/keras-lstm-time-series原创 2017-08-02 21:09:25 · 336 阅读 · 0 评论 -
循环神经网络重要的论文博客汇总
Recurrent Neural Network 学习之路来源于http://blog.csdn.net/yangyangyang20092010/article/details/50374289Followed by distinctive figures in corresponding articles.1. Read paper: “A critical review of Recurr转载 2017-03-24 16:34:27 · 6616 阅读 · 0 评论 -
YOLO文章汇总
YOLO和YOLO v2的文章汇总1. 图解YOLO https://zhuanlan.zhihu.com/p/24916786?utm_source=qq&utm_medium=social2.YOLO升级版:YOLOv2和YOLO9000解析 https://zhuanlan.zhihu.com/p/250521903.YOLOv2 https://zhuanlan.zhihu原创 2017-03-24 13:40:46 · 984 阅读 · 0 评论 -
softmax函数及对数似然函数的偏导数(推导过程)
在人工神经网络(ANN)中,Softmax通常被用作输出层的激活函数。这不仅是因为它的效果好,而且因为它使得ANN的输出值更易于理解。同时,softmax配合log似然代价函数,其训练效果也要比采用二次代价函数的方式好。1. softmax函数及其求导 softmax的函数公式如下: 其中,表示第L层(通常是最后一层)第j个神经元的输入,表示第L层第j个神经元的输出转载 2017-03-13 20:25:12 · 10024 阅读 · 0 评论 -
CNN-目标检测,定位,分割
1. 基本概念 1)CNN:Convolutional Neural Networks 2)FC:Fully Connected 3)IoU:Intersection over Union (IoU的值定义:Region Proposal与Ground Truth的窗口的交集比并集的比值,如果IoU低于0.5,那么相当于目标还是没有检测到) 4)ICCV:Inter转载 2017-03-01 20:22:29 · 2178 阅读 · 0 评论 -
基于R-CNN的物体检测(笔记标注版)
基于R-CNN的物体检测转载来源:http://blog.csdn.net/u011534057/article/details/51218250参考地址:http://blog.csdn.net/hjimce/article/details/50187029一、相关理论 本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accu转载 2017-03-01 17:05:51 · 622 阅读 · 0 评论 -
基于R-CNN的物体检测
基于R-CNN的物体检测原文地址:http://blog.csdn.net/hjimce/article/details/50187029作者:hjimce一、相关理论 本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》,这篇文章的算法思想又被称之转载 2017-03-01 15:35:47 · 328 阅读 · 0 评论 -
LSTM的Encoder-Decoder模式
深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 深度学习笔记(四):循环神经网络的概念,结构和代码注释 深度学习笔记(五):LSTM 深度学习笔记(六):Encoder-Decoder模型和Att转载 2017-03-01 15:20:55 · 42794 阅读 · 8 评论 -
Batch Normalization 梯度归一化
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reducing转载 2017-02-28 20:02:49 · 4356 阅读 · 0 评论 -
Batch Normalization 梯度归一化
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reducing转载 2017-02-28 19:59:34 · 1637 阅读 · 0 评论 -
梯度下降优化算法综述
梯度下降优化算法综述 该文转载来源于http://blog.csdn.net/heyongluoyao8/article/details/52478715 该文翻译自An overview of gradient descent optimization algorithms。 总所周知,梯度下降算法是机器学习中使用非常广泛的优化算法,也是众多机器学习算法中最常用的优化方法。几乎当前每一转载 2017-02-18 18:34:21 · 3132 阅读 · 0 评论 -
LSTM结构分析及代码实现
*此文为转载,源http://blog.csdn.net/u012319493/article/details/52802302* LSTM隐层神经元结构: LSTM隐层神经元详细结构: //让程序自己学会是否需要进位,从而学会加法#include "iostream"#include "math.h"#include "stdlib.h"#include "转载 2017-02-18 16:37:09 · 3466 阅读 · 0 评论 -
运用神经网络方法找寻集成学习中的最优权重
简介众所周知,如今在众多数据科学竞赛中的获奖方案中,使用集成学习算法已然成为了家常便饭。集成学习独有的依据一系列假设对大量机器学习算法进行训练的能力,不仅增加了模型的稳定性,同时也使得模型的精确程度得到了较高的提升。在此之前,如果你对集成学习还是没有什么印象的话,之前推送的文章《关于集成学习基础的简单描述》或许会对你有所帮助。话说回来,在构建集成模型时,如何找到最佳的权重往往是人们面临的常见挑战之一转载 2017-01-11 20:00:19 · 1637 阅读 · 0 评论