![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模型解读
larkii
所创作博客均作为个人笔记使用,谨慎参考!
展开
-
GAN 的训练问题与 WGAN
link原创 2020-03-26 10:21:59 · 288 阅读 · 0 评论 -
GANs 的模式崩溃
link原创 2020-03-25 14:05:28 · 311 阅读 · 0 评论 -
Batch Normalization
做 BN 可以使特征归一化,W 规模差不多时可以使用同一 lr 进行训练,也可以防止梯度消失/爆炸。对隐层的输出先做 BN ,可使值落在 0 附近,再激活,此时梯度较大利于训练。ReLU 对负值的输出为 0 ,可使网络稀疏(类似 dropout)。...原创 2020-03-22 10:44:37 · 96 阅读 · 0 评论 -
[可分离卷积] torch.nn.conv2d 中 groups
linkgroups controls the connections between inputs and outputs. in_channels and out_channels must both be divisible(可被整除) by groups. For example,At groups=1, all inputs are convolved to all outp...原创 2020-03-19 10:51:19 · 300 阅读 · 0 评论 -
不同种类的卷积
link原创 2020-03-18 15:30:58 · 245 阅读 · 0 评论 -
Tensorflow 和 Pytorch 的张量表示
[batch, height, width, channel]原创 2020-03-12 10:02:43 · 371 阅读 · 0 评论 -
3D卷积简介
LINK原创 2020-03-07 15:02:15 · 513 阅读 · 0 评论 -
Conditional GAN
知乎专栏blog+code原创 2020-03-04 14:29:34 · 418 阅读 · 0 评论 -
GAN 的理解
理论:maxGminDV(D,G)=Ex∼pdata(x)[logD(x)]+Ez∼p(z)[log(1−D(G(z)))]\mathop{max}\limits_{G}\mathop{min}\limits_{D}V(D,G)=E_{x\sim p_{data}(x)}[logD(x)]+E_{z\sim p_(z)}[log(1-D(G(z)))]GmaxDminV(D,G)=Ex∼pd...原创 2020-03-03 20:37:58 · 291 阅读 · 0 评论