![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
weixin_43654661
这个作者很懒,什么都没留下…
展开
-
隐马尔科夫HMM
案例分析首先我们看一个模型实例。假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:盒子123红球数547白球数563按照下面的方法从盒子里抽球,开始的时候,从第一个盒子抽球的概率是0.2,从第二个盒子抽球的概率是0.4,从第三个盒子抽球的概率是0.4。以这个概率抽一次球后,将球放回。然后从当前盒子转移到下一个盒子进...转载 2018-12-24 14:45:32 · 188 阅读 · 0 评论 -
Image Generation from Scene Graph
写一点看过的论文和code的感悟首先看一下论文的总体实现:我觉得这个模型与传统模型主要的两个创新点就是Graph Convolution和Cascaded Refinement NetworkGraph Convolution按论文上说,他处理scene graph 是通过graph的边来传递信息的,也就是所本来一个单词向量(obj_vecs)代表graph中的一个节点对象,但是通过图卷...原创 2019-04-20 14:09:20 · 408 阅读 · 0 评论 -
Pytorch 卷积中的 Input Shape
先看Pytorch中的卷积class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)二维卷积层, 输入的尺度是(N, C_in,H,W),输出尺度(N,C_out,H_out,W_out)的计算方式out(Ni,Cout...原创 2019-03-23 11:03:26 · 6889 阅读 · 0 评论 -
巧用Keras 回调函数CallBacks
keras 回调函数官方文档:https://keras-cn.readthedocs.io/en/latest/other/callbacks/主要就是包括:ModelCheckpoint:模型检测,断点恢复训练EasyStopping:提前终止TensorBoard:训练可视化ModelCheckPoint先看一下参数吧keras.callbacks.ModelCheckpo...原创 2019-03-07 11:37:10 · 899 阅读 · 0 评论 -
深度学习生成模型-DCGAN
原理分析DCGAN 和GAN的原理是相同的,就是DCGAN和CNN结合,用CNN更有利于图形处理。关于GAN的原理可以看一下这篇博客:GAN新手入门指南+keras&TensorFlow代码详解(WIN10)然后我们可以具体看一下model实现:实现生成器这是最简单的Keras Sequnatial模型,我们可以发现他的输入为(None, 100),而输出则是(None, 28,...原创 2019-03-09 09:31:30 · 668 阅读 · 0 评论 -
Seq2Seq with Attention
论文:官方实现:Neural Machine Translation with Attention李宏毅视频讲解:Attention based model传统的的Seq2Seq,他的Decoder 部分输入是:Encoder的ouput和state以及一个zero,如下图所示,这在翻译长文本的时候可能导致部分记忆的丢失,作为改进,大神引入了一个Attention机制。Attention...原创 2019-03-03 11:35:26 · 190 阅读 · 0 评论 -
Tensor与Numpy的转换
numpy --> tensor : 直接调用tf函数即可tensor --> numpy : 调用.numpy()函数import numpy as npndarray = np.ones([3, 3])print("TensorFlow operations convert numpy arrays to Tensors automatically")tensor =...原创 2019-02-26 11:25:31 · 5372 阅读 · 0 评论 -
Keras TimeDistributed 详解
keras.layers.TimeDistributed(layer)这个封装器将一个层应用于输入的每个timestep。输入至少为 3D,且第一个维度应该是时间所表示的维度。考虑 32 个样本的一个 batch, 其中每个样本是 10 个 16 维向量的序列。 那么这个 batch 的输入尺寸为 (32, 10, 16), 而 input_shape 不包含样本数量的维度,为 (10, ...原创 2019-03-05 13:34:41 · 2734 阅读 · 1 评论 -
tensorflow scan()函数
上篇博客讲了theano scan(),这里主要比较他们的差别,其实这两个函数都是用来做迭代的,其实看官网API也写得很详细,也不难。官方文档tf.scan( fn, elems, initializer=None, parallel_iterations=10, back_prop=True, swap_memory=False, in...原创 2019-01-14 19:16:51 · 1818 阅读 · 1 评论 -
RNN 原理分分析
Keras 的RNN实现有三种,分别为:SimpleRNNGRULSTM一个最简单的RNN数学公式表达就是:Yn+1=W.∗X+U.∗Yn+bY_{n+1} = W.*X + U.*Y_{n}+bYn+1=W.∗X+U.∗Yn+b我们就是要训练Trainning data的到最佳的W、U、b如果我们给定input_data.shape=(100, 32)output_...原创 2019-01-08 19:36:04 · 751 阅读 · 1 评论 -
keras 卷积原理分析
假设我们有这样一个2D卷积模型modle = Sequential()model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(150, 150, 3)))model.add(Maxpooling2D((2, 2)))model.add(Conv2D(64, (3, 3), activation='relu'))model....原创 2019-01-08 13:26:29 · 927 阅读 · 1 评论 -
theano.scan()用法
我可能刚看到theano 的scan()的时候大家也是一脸懵逼,这么多参数,而且每个参数那么复杂, 这是都啥啊?theano.scan(fn, sequences=None, outputs_info=None, non_sequences=None, n_steps=None, truncate_gradient=-1, go_backwards=False, mode=None, name=...原创 2019-01-13 17:54:59 · 412 阅读 · 0 评论 -
GAN原理详解
GAN的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是:G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1...原创 2019-07-26 13:22:23 · 2162 阅读 · 1 评论