zhi元元元

学无止境,终生学习

OpenCV-Python 中文教程

OpenCV官方教程中文版(For Python)OpenCV2-Python-Tutorials段力辉 译说明:搬运自linux公社pdf文件,粗略搬运,仅作个人笔记参考,有时间再美化部分文件参考:https://github.com/abidrahmank/OpenCV2-Python-Tut...

2018-04-23 14:50:35

阅读数 256

评论数 0

tf.contrib.rnn.BasicLSTMCell

https://blog.csdn.net/qq_32791307/article/details/80548950将所有tf.nn.rnn_cell更改为tf.contrib.rnn。Class tf.contrib.rnn.BasicLSTMCellClass tf.nn.rnn_cell.B...

2018-07-11 16:12:20

阅读数 1030

评论数 0

python 命令行参数解析 argparse简单分析

https://blog.csdn.net/it_way/article/details/44815141在python 2.7 后,不推荐使用 optparse, 而推荐使用 argparse.其它的不多说,简单的分析下我遇到的问题:我是想用 argparse 来解析不定长的命令行参数例如:im...

2018-07-10 22:29:45

阅读数 61

评论数 0

增强学习和OpeAI Gym的介绍:基础增强学习问题的演示

https://www.sohu.com/a/197847451_633700想要深入学习增强学习,请查看Marcos Campos在2017年9月17 - 20日于旧金山举行的O’Reilly人工智能会议上所做的“增强学习介绍”辅导课。你可以在Justin Francis的GitHub上找到这个...

2018-07-09 22:29:29

阅读数 187

评论数 0

pthon学习之argparse模块解析

https://blog.csdn.net/sinat_36897497/article/details/53428986

2018-07-09 21:50:36

阅读数 75

评论数 0

如何自动生成和安装requirements.txt依赖

https://www.cnblogs.com/zelos/p/7439599.html在查看别人的Python项目时,经常会看到一个requirements.txt文件,里面记录了当前程序的所有依赖包及其精确版本号。这个文件有点类似与Rails的Gemfile。其作用是用来在另一台PC上重新构建...

2018-07-07 22:40:40

阅读数 1556

评论数 0

深度学习和自然语言处理中的attention和memory机制

https://blog.csdn.net/zhong930/article/details/80121517 Attention机制是最近深度学习的一个趋势。在一次采访中,OpenAI的研究总监Ilya Sutskever说attention机制是最令人兴奋的进步之...

2018-06-14 21:53:44

阅读数 78

评论数 0

Attention和增强循环神经网络

https://blog.csdn.net/a398942089/article/details/53888797CHRIS OLAH,SHAN CARTER 译:Krse Lee原文:http://distill.pub/2016/augmented-rnns译者序:       本文重点讲述的...

2018-06-14 21:51:40

阅读数 139

评论数 0

Encoder-Decoder模型和Attention模型

https://blog.csdn.net/u014595019/article/details/52826423深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记:优化方法总结(BGD,SGD,Mo...

2018-06-13 22:01:56

阅读数 88

评论数 0

深度强化学习——Dueling-DDQN

https://blog.csdn.net/u013236946/article/details/73161586 深度双Q网络(DDQN)和基于竞争构架Q网络(Dueling-DQN)都是DQN的改进版本,前者是对DQN训练算法的改进,后者是对DQN模型结构的改进。一、DDQN论文(Hasse...

2018-06-12 22:38:11

阅读数 264

评论数 0

循环神经网络与LSTM

点击打开链接1. 循环神经网络①基本结构在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN(Re...

2018-06-09 23:00:59

阅读数 103

评论数 0

零基础入门深度学习(四):循环神经网络

点击打开链接在前面的文章系列文章中,我们介绍了全连接神经网络和卷积神经网络,以及它们的训练和使用。他们都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。 比如,当我们在理解一句话意思时,孤立的理解...

2018-06-09 22:58:57

阅读数 139

评论数 0

循环神经网络(RNN) 基础讲解

点击打开链接7.循环神经网络(RNN) 基础7.1 RNN(recurrent neural network)原理7.1.1 RNN为序列数据而生词序其实是很重要的中文中,这样的例子也很多。“怎么样投资白银”vs“白银投资怎么样”;“北京到上海的机票”vs“上海到北京的机票”。设计RNNs的目的,...

2018-06-09 22:14:21

阅读数 290

评论数 0

循环神经网络(RNN)原理通俗解释

1.RNN怎么来的?2.RNN的网络结构及原理3.RNN的改进1:双向RNN4.RNN的改进2:深层双向RNN4.1 Pyramidal RNN5.RNN的训练-BPTT6.RNN与CNN的结合应用:看图说话7.RNN项目练手1.RNN怎么来的?循环神经网络的应用场景比较多,比如暂时能写论文,写程...

2018-06-06 23:40:37

阅读数 122

评论数 0

Deep Learning基础--理解LSTM/RNN中的Attention机制

导读目前采用编码器-解码器 (Encode-Decode) 结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列编码成一个固定长度的向量表示,对于长度较短的输入序列而言,该模型能够学习出对应合理的向量表示。然而,这种模型存在的问题在于:当输入序...

2018-06-02 21:56:17

阅读数 933

评论数 0

【计算机视觉】深入理解Attention机制

1. 什么是Attention机制?其实我没有找到attention的具体定义,但在计算机视觉的相关应用中大概可以分为两种:1)学习权重分布:输入数据或特征图上的不同部分对应的专注度不同,对此Jason Zhao在知乎回答中概括得很好,大体如下: - 这个加权可以是保留所有分量均做加权(即sof...

2018-06-02 21:46:43

阅读数 975

评论数 0

浅谈Attention-based Model【源码篇】

源码不可能每一条都详尽解释,主要在一些关键步骤上加了一些注释和少许个人理解,如有不足之处,请予指正。 计划分为三个部分: 浅谈Attention-based Model【原理篇】 浅谈Attention-based Model【源码篇】(你在这里) 浅谈Attention-based Model【...

2018-06-02 21:43:11

阅读数 111

评论数 0

浅谈Attention-based Model【原理篇】

http://blog.csdn.net/wuzqchom/article/details/75792501计划分为三个部分: 浅谈Attention-based Model【原理篇】(你在这里) 浅谈Attention-based Model【源码篇】 浅谈Attention-based Mod...

2018-06-02 21:41:41

阅读数 1061

评论数 0

Deep Attention Recurrent Q-Network 5vision groups

摘要:本文将 DQN 引入了 Attention 机制,使得学习更具有方向性和指导性。(前段时间做一个工作打算就这么干,谁想到,这么快就被这几个孩子给实现了,自愧不如啊( ⊙ o ⊙ ))    引言:我们知道 DQN 是将连续 4帧的视频信息输入到 CNN 当中,那么,这么做虽然取得了不错的效果...

2018-06-02 20:46:17

阅读数 89

评论数 0

目前主流 attention 方法

知乎:https://www.zhihu.com/question/68482809

2018-06-02 20:40:36

阅读数 1030

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭