神经网络
Richard_More
学习笔记(金融+计算机)
展开
-
Conv Nets: A Modular Perspective
Conv Nets: A Modular PerspectivePosted on July 8, 2014neural networks, deep learning, convolutional neural networks, modular neural networksIntroductionIn the last few years, dee转载 2016-01-17 14:23:12 · 892 阅读 · 0 评论 -
A Survey of Deep Learning Techniques Applied to Trading
A Survey of Deep Learning Techniques Applied to TradingDeep learning has been getting a lot of attention lately with breakthroughs in image classification and speech recognition. However, its转载 2016-08-30 12:46:06 · 5410 阅读 · 0 评论 -
深度学习技术在股票交易上的应用研究调查
文中缩写:DBN = 深度信念网络LSTM = 长短期记忆网络MLP = 多层感知器RBM = 受限玻尔兹曼机ReLU = 修正线性单元CNN = 卷积神经网络限价委托单薄模型(Limit Order Book Modeling)Sirignano(2016)提出了一翻译 2016-08-30 12:52:08 · 15531 阅读 · 0 评论 -
Understanding LSTM Networks
Understanding LSTM NetworksPosted on August 27, 2015Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each转载 2016-10-01 20:56:31 · 588 阅读 · 0 评论 -
理解 LSTM 网络
理解 LSTM 网络循环神经网络(RNN)人们的每次思考并不都是从零开始的。比如说你在阅读这篇文章时,你基于对前面的文字的理解来理解你目前阅读到的文字,而不是每读到一个文字时,都抛弃掉前面的思考,从头开始。你的记忆是有持久性的。传统的神经网络并不能如此,这似乎是一个主要的缺点。例如,假设你在看一场电影,你想对电影里的每一个场景进行分类。传统的神经网络不能够基于前面的已分翻译 2016-10-01 21:05:22 · 3253 阅读 · 1 评论 -
LSTM Networks for Sentiment Analysis
LSTM Networks for Sentiment AnalysisSummaryThis tutorial aims to provide an example of how a Recurrent Neural Network (RNN) using the Long Short Term Memory (LSTM) architecture can be implemente转载 2016-10-01 21:01:37 · 2592 阅读 · 0 评论 -
Recurrent Neural Networks with Word Embeddings¶
Recurrent Neural Networks with Word EmbeddingsSummaryIn this tutorial, you will learn how to:learn Word Embeddingsusing Recurrent Neural Networks architectureswith Context Windowsin order转载 2016-10-01 22:07:55 · 1965 阅读 · 0 评论 -
The Unreasonable Effectiveness of Recurrent Neural Networks
There's something magical about Recurrent Neural Networks (RNNs). I still remember when I trained my first recurrent network for Image Captioning. Within a few dozen minutes of training my first baby model (with rather arbitrarily-chosen hyperparameters) s转载 2016-01-16 22:24:13 · 3817 阅读 · 0 评论 -
Anyone Can Learn To Code an LSTM-RNN in Python
Anyone Can Learn To Code an LSTM-RNN in Python (Part 1:Summary: I learn best with toy code that I can play with. This tutorial teaches Recurrent Neural Networks via a very simple toy example, a转载 2016-10-02 14:22:28 · 2176 阅读 · 0 评论 -
人人都能用Python写出LSTM-RNN的代码!
1. 概要我的最佳学习法就是通过玩具代码,一边调试一边学习理论。这篇博客通过一个非常简单的python玩具代码来讲解递归神经网络。那么依旧是废话少说,放‘码’过来!Python123456789101112131415161718192021222324252627282翻译 2016-10-02 14:45:20 · 3579 阅读 · 1 评论 -
Nature:Hinton、LeCun、Bengio三巨头权威科普深度学习
Hinton、LeCun、Bengio 是深度学习的最权威的科学家。文中介绍的网络是深度学习中最为成熟,经典的部分。读这篇文章可以对深度学习的核心模块有一个最快的认识。 背景借助深度学习,多处理层组成的计算模型可通过多层抽象来学习数据表征( representations)。这些方法显著推动了语音识别、视觉识别、目标检测以及许多其他领域(比如,药物发现以及基因组学)的技转载 2016-08-27 12:00:16 · 4916 阅读 · 0 评论 -
2010-2016年被引用次数最多的深度学习论文
我相信世上存在值得阅读的经典的深度学习论文,不论它们的应用领域是什么。比起推荐大家长长一大串论文,我更倾向于推荐大家一个某些深度学习领域的必读论文精选合集。精选合集标准2016 : +30 引用 「+50」2015 : +100 引用 「 +200」2014 : +200 引用 「+400」2013 : +300 引用 「 +600」转载 2016-08-27 11:35:07 · 3638 阅读 · 0 评论 -
为什么无监督的预训练可以帮助深度学习
本篇文章主要是review Dumitru Erhan∗,Yoshua Bengio,Aaron Courville,Pierre-Antoine Manzagol 在2010年发表的《why does unsupervised pre-training help deep learning?》.一 话题导入最近深度学习框架中比如:Deep Belief Networks,原创 2016-08-27 11:17:49 · 12457 阅读 · 0 评论 -
Understanding Convolutions
Understanding ConvolutionsPosted on July 13, 2014neural networks, convolutional neural networks, convolution, math, probabilityIn a previous post, we built up an understanding of convo转载 2016-01-17 14:25:46 · 968 阅读 · 0 评论 -
UNDERSTANDING CONVOLUTIONAL NEURAL NETWORKS FOR NLP
UNDERSTANDING CONVOLUTIONAL NEURAL NETWORKS FOR NLP(http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/)November 7, 2015When we hear about Convolutional转载 2016-01-17 14:31:39 · 1488 阅读 · 0 评论 -
ConvNetJS源代码解析第一篇
一. 背景最近有文章评论Karpathy的基于JavaScript的卷积神经网络在Github下载量名列前茅。其官方主页,Github代码,以及正在更行的Blog。原因有两个,一个是JavaScript,这是一种脚本语言,其好处在于用户除了安装IE等浏览器,而不需要安装其他编译的package,就可以直接运行程序,其也更利于可视化。另外就是卷积神经网络成为处理图片的一个流行且有效的算法,TED原创 2016-01-26 21:09:29 · 9138 阅读 · 0 评论 -
ConvNetJS源代码解析第二篇
上一篇主要介绍了本次代码的数据结构Vol。第二篇将紧接着第一篇的内容介绍Layer(convnet_layers_dotproducts.js;convnet_layers_dropout.js;convnet_layers_input.js;convnet_layers_loss.js;convnet_layers_nonlinearities.js;convnet_layers_norma原创 2016-01-27 14:17:10 · 3144 阅读 · 0 评论 -
ConvnetJS源代码分析第二篇(补充)
截止到前面两篇,我们已经分析了600多行的JavaScript代码,但所涉及的知识仅仅是基本的JS语法,使用最多的就是类的概念。由于在src中还有很多的关于各种类型Layers的定义,但是他们的代码基本是大同小异,就不在一一赘述所有Layer文件的代码了。这篇关于Layer的补续将会分析convnet_layers_nonlinearities.js。为什么单单拿出这个文件分析呢? 因为这原创 2016-01-28 13:42:25 · 1700 阅读 · 0 评论 -
ConvnetJS源代码分析第三篇
在前面的两篇文章中介绍了其使用的基本数据结构Vol和神经网络组件Layer。最后两个就是convnet_net.js和convnet_trainers.js。2.6 convnet_net.js在第二篇曾经初步的设计过这里面的内容,主要是接受Layer类的array,形成一个健全的神经网络。一下是文件convnetjs_net.js的全部代码。其中中文注释为自己添加的,英文为作者添加的。原创 2016-01-28 16:50:14 · 2667 阅读 · 1 评论 -
windows训练google word2vec
word2vec是Google在2013年提出的一款开源工具,其是一个Deep Learning(深度学习)模型(实际上该模型层次较浅,严格上还不能算是深层模型,如果word2vec上层再套一层与具体应用相关的输出层,如Softmax,便更像是一个深层模型),它将词表征成实数值向量,采用CBOW(Continuous Bag-Of-Words Model,连续词袋模型)和Skip-Gram(Con转载 2016-04-28 21:02:22 · 2828 阅读 · 0 评论 -
深度学习在健康医疗领域的应用综述
近年来,以深度学习为代表的机器学习在健康医疗领域越来越多。按照处理的数据种类可以分为数值型,文本型以及图片数据;本文主要集中在文本数据。临床诊断决策:(Miotto R,et al;2016)[1]提出了一种新的无监督深度特征学习方法即为三层堆叠的降噪自动解码器,它可以从电子健康病历数据中获取一个通用的病人表征,从而让临床预测性建模更加方便。用于捕捉西奈山数据仓库中70万患者聚合电子健康病原创 2016-08-17 16:13:33 · 19380 阅读 · 1 评论 -
基于RNN做语义理解和词向量
基于RNN做语义理解1.前言本文翻译的文章是Grégoire Mesnil, Xiaodong He, Li Deng and Yoshua Bengio - Investigation of Recurrent Neural Network Architect翻译 2016-10-02 11:18:49 · 8024 阅读 · 0 评论