排序:
默认
按更新时间
按访问量

14-循环神经网络及tensorflow

Recurrent Neural Networks 循环神经网络很像前向神经网络,但是不同的是神经元有连接回指。 循环神经网络用LSTM和GRU单元解决梯度爆炸\消失问题 循环神经元(Recurrent Neurons) 如图左边,一个循环神经元可以把自己的输出,作为自身的输入,但是...

2018-06-18 17:15:09

阅读数:135

评论数:0

11-训练深度神经网络的一些技巧

梯度消失和梯度爆炸 解决办法:Xavier初始化和He初始化 ReLU的优点和缺点 隐层中使用激活函数的策略 Batch Normalization 梯度修剪 梯度消失和梯度爆炸 在反向传播算法计算cost函数的对每个参数的梯度误差之后,在更新参数的时候,随着越来越到低层,梯...

2018-06-11 16:51:08

阅读数:97

评论数:0

15-tensorflow实现各种自编码器及技巧

用编码器做PCA 隐层的特点:线性激活函数 代码: 预先声明的函数和包 # To support both python 2 and python 3 from __future__ import division, print_function, unicode_literals ...

2018-06-05 07:56:07

阅读数:201

评论数:0

InfoGAN

Written by title date zhengchu1994 《InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversari...

2018-05-24 14:50:38

阅读数:112

评论数:0

变分自编码器记录与tensorflow代码及pytorch代码分析

Written by title date (我的github地址)zhengchu1994 《Tutorial on Variational Autoencoders》 2018-05-13 生成模型 生成模型,即,一个数据分布为P的模型,P...

2018-05-17 15:13:11

阅读数:265

评论数:0

12-卷积网络基本概念及tensorflow代码+pytorch代码

convolutional neural networks 一、卷积神经网络的结构 A. 卷积层(Convolutional Layer) 我们知道对于给定的一幅图像来说,给定一个卷积核,卷积就是根据卷积窗口,进行像素的加权求和。深度学习中的卷积神经网络卷积核是未知的,我们训练一个神经...

2018-04-15 10:20:48

阅读数:126

评论数:0

10_introduction_to_artificial_neural_networks

introduction to artificial neural networks # To support both python 2 and python 3 from __future__ import division, print_function, unicode_litera...

2018-01-05 19:13:03

阅读数:278

评论数:0

scipy:csr_matrix稀疏行矩阵

>>> import numpy as np >>> from scipy.sparse import csr_matrix >&am...

2018-09-16 13:11:01

阅读数:8

评论数:0

稀疏标签的交叉熵 :tensorflow

熵 : 离散形式: H(X)≡−∑k=1KP(X=k)logP(X=k)H(X)≡−∑k=1KP(X=k)log⁡P(X=k)H(X)\equiv - \sum_{k=1}^KP(X=k)\log{P(X=k)} KL散度: KL(P||Q)=∑k=1KPklogPkQk=∑k=1...

2018-09-15 13:28:47

阅读数:17

评论数:0

scpiy: sp.tolil()

最近做一个多标签的任务,需要对预测的top k index计算precision和nDCG。必要的一步是确定预测的index是否在groundtruth中。groundtruthy_dev是multi-hot形式,使用scipy中的稀疏矩阵存储。 判断i号样本的p号标签是否预测正确,只...

2018-09-15 10:11:51

阅读数:16

评论数:0

vim常用命令总结 (转)

vim 选择文本,删除,复制,粘贴 文本的选择,对于编辑器来说,是很基本的东西,也经常被用到,总结如下: v 从光标当前位置开始,光标所经过的地方会被选中,再按一下v结束。 V 从光标当前行开始,光标经过的行都会被选中,再按一下V结束。 Ctrl + v 从...

2018-09-05 16:35:01

阅读数:7

评论数:0

linux下的source命令

当我修改了/etc/profile文件,我想让它立刻生效,而不用重新登录;这时就想到用source命令,如:source /etc/profile 对source进行了学习,并且用它与sh 执行脚本进行了对比,现在总结一下。 source命令: source命令也称为“点命令”,也就是一个点...

2018-09-05 15:18:56

阅读数:10

评论数:0

Linux系统修改PATH环境变量方法

在Linux安装一些软件通常要添加路径环境变量PATH.PATH环境变量通俗的讲就是把程序的路径”备案”到系统中,这样执行这些程序时就不需要输入完整路径,直接在bash输入程序名就可以执行.比如常用的ls命令就是添加好了环境变量才可以直接执行ls 0查看PATH环境变量 终端输入echo ...

2018-09-05 15:13:57

阅读数:8

评论数:0

linux几种常见的Shell:sh、bash、csh、tcsh、ash

Linux 是一个开源的操作系统,由分布在世界各地的多个组织机构或个人共同开发完成,每个组织结构或个人负责一部分功能,最后组合...

2018-09-05 10:29:03

阅读数:8

评论数:0

pytorch记录:seq2seq例子看看这torch怎么玩的

先看看简单例子: import torch import torch.autograd as autograd import torch.nn as nn import torch.nn.functional as F import torch.optim as optim torch.m...

2018-09-02 23:11:17

阅读数:31

评论数:0

Linux新手入门:Unable to locate package错误解决办法

转:http://www.cppblog.com/colorful/ Linux新手入门:Unable to locate package错误解决办法 最近刚开始接触Linux,在虚拟机中装了个Ubuntu,当前的版本是Ubuntu 11.10,装好后自然少不了安装一些软件,在设置了软件的源...

2018-09-02 16:09:39

阅读数:17

评论数:0

torch记录:张量、采样、操作

Tensors (张量) Indexing, Slicing, Joining, Mutating Ops (索引, 切片, 连接, 换位) 操作 Math operations (数学操作) Other Operations (其它操作) 参考:http://pyto...

2018-08-31 19:17:33

阅读数:23

评论数:0

torch记录:torch.nn模块

Recurrent layers class torch.nn.RNN(*args, **kwargs) 参数: input_size – 输入x的特征数量。 hidden_size – 隐层的特征数量。 num_layers – RNN的层数。 bidirectional – ...

2018-08-31 16:00:21

阅读数:60

评论数:0

PCA

矩阵分解角度的pca 这部分转自:https://blog.csdn.net/songzitea/article/details/18219237 内积 设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度 基底 只有一个(3,2)本身是不能够精确表示一个向量的。这里的3实...

2018-08-28 18:41:18

阅读数:14

评论数:0

wasserstein 距离

注明:直观理解而已,正儿八经的严谨证明看最下面的参考。 Earth Mover’s Distance 推土机距离的例子:有一堆土的分布是 PrPrP_r, 其随机变量是xxx,现在要求把这堆土挪动成为分布 PgPgP_g ,其随机变量是yyy(图上是PθPθP_\theta),这样...

2018-08-25 20:47:32

阅读数:94

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭