![](https://img-blog.csdnimg.cn/20190918140037908.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
李宏毅机器学习
文章平均质量分 85
机器学习
keep--learning
行则将至
展开
-
Unsupervised Condition GAN
直接输入domain X图片,经过Generator后生成对应的domain Y的图像。这种转化input和output不能够差太多。通常只能实现较小的转化,比如改变颜色等。先学习一个X domain的encoder,把特征抽出来;然后输入Y domain的decoder,生成对应的图片。原创 2023-11-21 09:15:50 · 430 阅读 · 1 评论 -
Conditional GAN
Conditional GAN的做法就是,generator的输入一张图片和noise z,输出一张图片,discriminator会输入产生的image和input,输出一个scalar。通过算法的迭代,生成下面第三张图片,看起来很清晰,但和真实的图片还是有差异。对于根据文字生成图像的问题,传统的做法就是训练一个NN,然后输入一段文字,输出对应一个图片,输出图片与目标图片越接近越好。存在的问题就是,比如火车对应的图片有很多张,如果用传统的NN来训练,模型会产生多张图像的平均,结果就会很模糊。原创 2023-11-21 09:04:33 · 663 阅读 · 0 评论 -
Theory behind GAN
假如要生成一些人脸图,实际上就是想要找到一个分布,从这个分布内sample出来的图片像是人脸,分布之外生成的就不像人脸。之后训练G:其中第一项是与生成器无关的,由于G不能训练太多,否则会导致D无法evaluate JS,所以update一次就好。其实在训练过程中不是真正的minimize JS散度,因为G在训练时变化时,理论上V是要取期望值,但是实际上是不可能的,只能用样本的均值进行估计。现在的目标是最小化这个差异,所以下图的三个网络中,都是固定的,所以设为常数,然后通过求导求出最大值。原创 2023-11-17 09:51:47 · 441 阅读 · 0 评论 -
生成对抗网络Generative Adversarial Network,GAN
生成对抗网络,GAN,变分编码器,VAE原创 2023-11-17 09:29:36 · 499 阅读 · 0 评论 -
Transformer
本节主要讲了Self-Attention的原理以及在Transformer上的应用。原创 2023-06-22 16:33:11 · 819 阅读 · 0 评论 -
Generative Adversarial Network(生成对抗网络)
生成对抗网络(GAN),变分编码器(VAE)原创 2023-06-20 13:27:03 · 2101 阅读 · 0 评论 -
Unsupervised Learning(无监督学习)
无监督学习,聚类,主成分分析(PCA),降维,矩阵分解原创 2023-06-13 14:25:43 · 1420 阅读 · 0 评论 -
Semi-supervised Learning(半监督学习)
半监督学习,原创 2023-05-30 18:14:42 · 1123 阅读 · 0 评论 -
Recurrent Neural Network(循环神经网络)
循环神经网络(RNN),长短期记忆单元(LSTM)原创 2023-05-26 10:25:19 · 1220 阅读 · 0 评论 -
Convolutional Neural network(卷积神经网络)
卷积神经网络原创 2023-05-15 18:34:29 · 2804 阅读 · 4 评论 -
Tips for Deep Learning
激活函数,优化器,训练策略原创 2023-05-14 14:25:17 · 1583 阅读 · 1 评论 -
Backpropagation(反向传播)
梯度反向传播原创 2023-05-12 15:58:49 · 599 阅读 · 0 评论 -
深度学习简介,梯度下降,回归分类
深度学习基本介绍,回归,梯度下降,分类原创 2022-09-25 14:53:59 · 353 阅读 · 0 评论 -
深度学习绪论
机器学习原创 2022-06-23 17:58:19 · 341 阅读 · 0 评论