- 博客(4)
- 资源 (1)
- 收藏
- 关注
原创 李宏毅MLDS课程笔记9:Generative Adversarial Network(GAN)
NIPS 2016 Tutorial: Generative Adversarial Networks [Paper] [Video] tips for training GAN: https://github.com/soumith/ganhacksBasic Idea of GAN1、最大化似然函数等价于最小化PdataP_{data} 与PGP_G 之间的KL散度。如果PGP_G 取的是GM
2017-04-23 16:01:45 4309
原创 李宏毅机器学习课程笔记6:Unsupervised Learning - Auto-encoder、PixelRNN、VAE、GAN
台湾大学李宏毅老师的机器学习课程是一份非常好的ML/DL入门资料,李宏毅老师将课程录像上传到了YouTube,地址:NTUEE ML 2016 。 这篇文章是学习本课程第16-18课所做的笔记和自己的理解。Lecture 16: Unsupervised Learning - Auto-encoder Auto-encoder在手写数字识别任务中,想训练一个NN encoder,得到图像的精简表达
2017-04-16 18:18:24 11537
原创 李宏毅机器学习课程笔记4:CNN、Why Deep、Semi-supervised
台湾大学李宏毅老师的机器学习课程是一份非常好的ML/DL入门资料,李宏毅老师将课程录像上传到了YouTube,地址:NTUEE ML 2016 。 这篇文章是学习本课程第10-12课所做的笔记和自己的理解。Lecture 10: Convolutional Neural Network Why CNN for ImageCNN的参数比全连接神经网络少得多,为什么CNN只用较少的参数就可以用于处理图
2017-04-09 14:05:52 8620
原创 李宏毅机器学习课程笔记3:Backpropagation、"Hello world" of Deep Learning、Tips for Training DNN
台湾大学李宏毅老师的机器学习课程是一份非常好的ML/DL入门资料,李宏毅老师将课程录像上传到了YouTube,地址:NTUEE ML 2016 。 这篇文章是学习本课程第7-9课所做的笔记和自己的理解。Lecture 7: Backpropagation 神经网络可能有百万数量级的参数,为了在梯度下降时有效地计算梯度,使用反向传播。 下面只考虑一笔data对参数的偏微分。根据链式法则, ∂C
2017-04-08 16:58:06 6285
Deep Learning with Keras - Antonio Gulli.mobi
2017-08-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人