GANs
文章平均质量分 74
DreaMaker丶
这个作者很懒,什么都没留下…
展开
-
dcgan.torch/main.lua
require 'torch' require 'nn' require 'optim' opt = { dataset = 'lsun', -- imagenet / lsun / folder batchSize = 64, loadSize = 96, fineSize = 64, nz = 100, -- # of dim for Z ngf ...原创 2018-04-07 22:34:57 · 610 阅读 · 1 评论 -
Rectified Linear Unit (ReLU)
在神经网络中,常用到的激活函数有sigmoid函数,双曲正切(hyperbolic tangent)函数f(x) = tanh(x)。今天要说的是另外一种activation function,rectified linear function线性整流函数(Rectified Linear Unit, ReLU),又称修正线性单元, 是一种人工神经网络中常用的激活函数(activation fun...转载 2018-04-04 14:55:38 · 10100 阅读 · 1 评论