![](https://img-blog.csdnimg.cn/2019091813595558.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
AI绘图原理学习笔记
文章平均质量分 95
该专栏总结不全面,学习框架缺失,由于时间有限,一切的目的都是为看懂LDMs论文而服务。
宋瑞梁
本人写的专栏营养价值不高,仅仅是为了记录个人学习过程顺便帮助理解消化,难免出现错误,评论区指正我有空会修改
展开
-
【AI绘图学习笔记】transformer
让我们来总结一下transformer的整个结构。首先transformer用于解决seq2seq的问题,seq2seq可以让机器自行决定输出的seq的长度,因此会表现出一些特殊的性质,尤其是当我们对seq2seq的model进行硬train的时候,机器竟然也能做到较好的效果。transformer的整个结构就是input→Encoder→Decoder→output→Decoder→endinput→En。原创 2023-04-09 17:14:14 · 1321 阅读 · 2 评论 -
【AI绘图学习笔记】self-attention自注意力机制
本节课还是相当简单易懂的,该笔记也就是照抄文案然后加上自己的一些理解,推荐看李老师的原视频。原创 2023-04-07 17:28:05 · 2427 阅读 · 0 评论 -
【AI绘图学习笔记】Latent Diffusion Model(上)——论文解读
我们来看一些主要的生成模型:第一个GAN生成对抗网络,可以分为判别器和生成器两个部分,总体思想就是:我们先对判别器进行训练,让其判断给出的inputxxx是否为生成器所生成的(二分类问题判断real or fake),在一段时间的训练后,判别器的准确度会达到很高的水准。接下来我们再训练生成器使其骗过判别器,然后生成器的效果会越来越强,直到最后判别器的准确率趋近于50%,也就是随机猜对的几率。VAE我们讲过了,本质上也不算生成模型,他是按照加噪后的图像进行去噪得到一个新的输出x′x'x′。原创 2023-04-05 17:24:46 · 3319 阅读 · 2 评论 -
【AI绘图学习笔记】Probabilistic Diffusion Model概率扩散模型
参考:Probabilistic Diffusion Model概率扩散模型理论与完整PyTorch代码详细解读由浅入深了解Diffusion Model在上节我们了解了VAE的原理,总体来说可以分为两个过程,一个是使用q(z∣x)q(z|x)q(z∣x)给Encoder进行前向学习的过程,另一个是使用p(x∣z)p(x|z)p(x∣z)给Decoder进行逆向推理的过程。多层VAE模型和单层VAE实际上是类似的,只不过在单层基础上,我们将其视为一个马尔科夫链,因此每一个概率只与前一个概率有关,上面原创 2023-03-31 10:51:17 · 577 阅读 · 0 评论 -
【AI绘图学习笔记】变分自编码器VAE
VAE通过给AE引入噪声,将潜在空间中的code从离散区间转化为了连续区间,从而我们可以在连续区间中取得code的插值来生成一些介于某些训练结果code之间的样本。这些样本和原来的输入存在着一定的相似度,不过VAE的生成图像是很模糊的,无法直接作为生成模型。原创 2023-03-28 21:35:10 · 2061 阅读 · 2 评论 -
【AI绘图学习笔记】卷积网络(二)基本卷积网络
CNN解释器地址:CNN ExplainerCNN解释器文献:CNN Explainer: Learning Convolutional Neural Networks with Interactive VisualizationCNN github地址:https://github.com/poloclub/cnn-explainerDeep Learing官方PDF:deeplearningbook文章目录基本卷积函数的变体步幅零填充三种零填充局部连接平铺卷积梯度学习结构化输出随机或无监督的特原创 2023-03-25 17:57:59 · 643 阅读 · 0 评论 -
【AI绘图学习笔记】卷积网络(一) 卷积和池化
使用分离的参数学得多个特征,再使用池化单元进行池化,可以学得对输入的某些变换的不变性。上图展示了池化的不变性,下面一行在探测级上给出了非线性的输出(例如ReLU整流后的结果),上面一行代表了最大池化的输出,每个池的宽度为三个像素并且池化区域的步幅为一个像素,池化层选取了输入中的最大值作为输出结果。在传统的神经网络中,使用矩阵乘法来建立输入与输出的连接关系,参数矩阵中的每一个单独的参数都描述了一个输入单元与一个输出单元之间的交互,也就意味着传统的神经网络中每一个输出单元与输入单元都产生交互,如下图所示。原创 2023-03-22 21:26:47 · 699 阅读 · 0 评论 -
【AI绘图学习笔记】卷积网络前序——卷积背后的数学原理
这个卷积操作,对比下面的多项式乘法会发现,卷积值和多项式系数是对应的,并且我们用矩阵对角相加的方法来计算的方法,本质上就是一个对多项式的全乘积的展开方法,对角线求和就是合并同类项,这个过程和卷积的过程实际上是一模一样的。那么让我们调整红色正弦波的频率,直到两者的乘积表示面积只在X轴上方,此时说明两条波形耦合了(很好理解,因为X轴上方的值相乘为正,X轴下方的值是负数×负数也是正的),此时说明这个红色正弦波是我们所求的蓝色信号的一部分。在数学上计算卷积的时候,最终获得的矩阵总要比原来的大。原创 2023-03-19 11:01:30 · 666 阅读 · 0 评论 -
【AI绘图学习笔记】深度前馈网络(三)
有关深度前馈网络的部分知识,我们已经在吴恩达的机器学习课程中有过了解了,本章主要是对《深度学习》花书中第六章:深度前馈网络的总结笔记。我希望你在看到这一章的时候,能回忆起机器学习课程中的一些环节或者细节,这对理解本文很有帮助。原创 2023-03-15 20:39:09 · 378 阅读 · 0 评论 -
【AI绘图学习笔记】深度前馈网络(二)
有关深度前馈网络的部分知识,我们已经在吴恩达的机器学习课程中有过了解了,本章主要是对《深度学习》花书中第六章:深度前馈网络的总结笔记。我希望你在看到这一章的时候,能回忆起机器学习课程中的一些环节或者细节,这对理解本文很有帮助。原创 2023-03-14 12:07:16 · 294 阅读 · 0 评论 -
【AI绘图学习笔记】深度前馈网络(一)
有关深度前馈网络的部分知识,我们已经在吴恩达的机器学习课程中有过了解了,本章主要是对《深度学习》花书中第六章:深度前馈网络的总结笔记。我希望你在看到这一章的时候,能回忆起机器学习课程中的一些环节或者细节,这对理解本文很有帮助。(逮住大佬的文章使劲薅)原创 2023-03-11 12:07:52 · 428 阅读 · 0 评论 -
【AI绘图学习笔记】奇异值分解(SVD)、主成分分析(PCA)
左图中的M是一个线性变换矩阵,想要从一个单位圆达到M这个效果,你可以想象一下,我们就是把这个圆拉长并且旋转。我们可以把整个操作分解为拉伸+旋转。在奇异值分解中,则是分解为了旋转VTV^TVT+拉伸Σ\SigmaΣ+旋转UUU,奇异值分解的公式则是MUΣVTMUΣVT。因此,想要解决PCA问题,我们需要找到旋转矩阵RRR,那么怎么找到它呢?我们需要协方差矩阵的帮助。原创 2023-03-10 16:46:55 · 650 阅读 · 0 评论 -
【AI绘图学习笔记】深度学习相关数学原理总结(持续更新)
如题,这是一篇深度学习相关数学原理总结文,由于深度学习中涉及到较多的概率论知识(包括随机过程,信息论,概率与统计啥啥啥的),而笔者概率知识储备属实不行,因此特意开一章来总结(大部分是概率相关)。原创 2023-03-04 22:07:46 · 801 阅读 · 0 评论 -
【AI绘图学习笔记】支持向量机和核函数
支持向量机原理(一) 线性支持向量机如上图所示,图中有很多离散点,中间的那条线在之前的二分问题中我们称为分类边界zzz,在支持向量机中它是一个分离二元类别的超平面。假设我们想要判断某些点应当属于那一类,我们希望所有的点都被准确分类。但是实际上离超平面很远的点已经被正确分类,它们的距离太远以至于很难被误分类,我们关心的是那些离超平面距离较近的那些点,也就是虚线范围内的那些点,对于这些点的分类是可能产生误差的。原创 2023-02-26 20:44:27 · 389 阅读 · 0 评论 -
【AI绘图学习笔记】初识生成模型
(文章中大部分内容从网上学习笔记中摘录,推荐阅读原文,吴恩达深度学习课程笔记暂时停更一段时间,学习AI绘图原理是为了搞定毕业设计,等忙完再回头把基础补完,推荐读物《深度学习》花书)原创 2023-02-23 22:59:03 · 778 阅读 · 0 评论