自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (3)
  • 收藏
  • 关注

转载 人人都能用Python写出LSTM-RNN的代码!

人人都能用Python写出LSTM-RNN的代码![你的神经网络学习最佳起步]标签: python神经网络RNNLSTM2015-11-21 22:22 1312人阅读 评论(5)收藏 举报分类: machine learning(2) python(4) 目录(?)[+]0. 前言本文翻译自博客:

2015-12-24 11:42:32 1871

转载 Stochastic Optimization Techniques随机优化相关笔记

skip to contenthttp://colinraffel.com/wiki/User ToolsLog InSite ToolsRecent ChangesMedia ManagerSitemapstochastic_optimization_techniquesTable of Conten

2015-12-24 09:53:57 7116

原创 科技论文中图片的处理方法

科技论文中图片的处理方法****************************************************************************    有位论文审稿人在自己的博文中写道:“我审稿时看稿件的顺序是题目、摘要、图表、前言、参考文献和正文”。可见论文中图片的质量是非常重要的,处理一张图可能会花费大量的时间,正如焦老师所说的,那位德国小伙子处理一张图

2015-12-22 09:44:02 2022

转载 干货 | ICCV 2015 揭开152层神经网络的面纱

干货 | ICCV 2015 揭开152层神经网络的面纱 原创2015-12-18 小S 程序媛的日常 程序媛的日常程序媛的日常微信号 girlswhocode 功能介绍 Hello world! 做第一个专注于程序媛的公众号!两位小小程序媛带你领略程序媛的日常,有专业知识也有生存技能。//其实我们的生活也可以过得很精彩!

2015-12-21 22:44:12 3711

转载 Must Know Tips/Tricks in Deep Neural Networks (by Xiu-Shen Wei)

Must Know Tips/Tricks in Deep Neural Networks (by Xiu-Shen Wei)转载于http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html  Deep Neural Networks, especially Convolutional Neura

2015-12-21 22:39:50 1569

原创 151221

import osimport os.pathdef GenConvlutionLayer(train_prototxt_file,layer_name,bottom,top,num_output,kernel_size,pad=0): train_prototxt_file.write("layer {" + "\n") train_prototxt_file.write(

2015-12-21 21:50:26 558

原创 Rethinking the Inception Architecture for Computer Vision 笔记

面向计算机视觉的改进Inception CNN框架(3.46% top-5 error on ImageNet)】摘要: 目的:Here we are exploring ways to scale up networks in ways that aim at utilizing the added computation as efficiently as possible b

2015-12-21 13:13:09 5222

原创 Going deeper with convolutions笔记

Going deeper with convolutions笔记ContentsAbstractIntroductionRelated WorkMotivation and High Level ConsiderationsArchitectural DetailsGoogLeNetTraining MethodologyILSVRC 2014 Classification Cha

2015-12-21 10:41:18 4361 2

原创 caffe c++ 接口

Caffe使用教程初始化网络#include "caffe/caffe.hpp"#include #include using namespace caffe;char *proto = "H:\\Models\\Caffe\\deploy.prototxt"; /* 加载CaffeNet的配置 */Phase phase = TEST; /* or TRAIN */Caff

2015-12-15 15:08:26 4126 1

原创 python 遍历文件夹子文件夹,批量生成txt

import osimport os.pathdef createList(root_dir, class_list, info_name): info = open(info_name, "w") for class_name, label in class_list: class_path = root_dir + "/" + class_name

2015-12-15 11:33:08 1789

原创 linux多核处理下提高编译速度 make -j

Linux开源程序编译往往会需要较长时间,多核处理器的应用可以大大缩短编译所需要的时间。 默认情况下,make并没有将多核处理器的性能发挥到极限。相反,它只使用了其中一个核心。 make的-j参数可以使make进行并行编译。make该参数的帮助如下:[xhtml] view plaincopy-j [N], --jobs[=N]          All

2015-12-15 09:32:58 19357 1

原创 分类器之Adaboost学习

1、 原理介绍(1)基本介绍  Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这 些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类

2015-12-14 13:11:42 11850

原创 图像归一化,减均值预处理

// normlizer.cpp : 定义控制台应用程序的入口点。//#include "stdafx.h"#include #include #include #include using namespace std;using namespace cv;// Example 3 - 9. Summing all of the elements

2015-12-09 22:51:16 10545

翻译 理解长短期记忆网络(LSTM NetWorks)

英文原文:http://colah.github.io/posts/2015-08-Understanding-LSTMs/理解长短期记忆网络(LSTM NetWorks)  递归神经网络  人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。  传统的神经网络不能做

2015-12-03 22:18:04 1401

原创 神经网络为什么要有激活函数,为什么relu 能够防止梯度消失

第一个问题:为什么引入非线性激励函数?如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与只有一个隐藏层效果相当,这种情况就是多层感知机(MLP)了。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)。最

2015-12-02 10:19:52 34982 4

原创 从最初rnn 到lstm 演变, lstm各个控制门的实现过程

自剪枝神经网络Simple RNN从理论上来看,具有全局记忆能力,因为T时刻,递归隐层一定记录着时序为1的状态但由于Gradient Vanish问题,T时刻向前反向传播的Gradient在T-10时刻可能就衰减为0。从Long-Term退化至Short-Term。尽管ReLU能够在前馈网络中有效缓解Gradient Vanish,但RNN的深度过深,替换激活函数治

2015-12-02 10:09:56 9699

原创 Windows7安装Theano

Windows7安装Theano深度学习开发工具theano在Anacodna下的安装(windows版)第一步:安装Anacodna。在网站http://continuum.io/downloads 中下载对应的版本,安装Anacodna的路径最好为默认路径(一般是c盘)。第二步:安装theano.1:到 https://github.com/Theano/Theano 网址

2015-12-02 09:39:36 899

Soft-Boundary Label Relaxation with class placement constraints

Soft-Boundary Label Relaxation with class placement constraints

2021-12-14

VNC-Viewer

用于远程 Linux系统的软件, 经典好用。 值得推荐。

2015-08-19

最经典的设计模式

c++ 设计模式,无论入门还是提高都特别适合,特别推荐

2015-06-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除