AIGC生成式人工智能从入门到实战
文章平均质量分 97
原价99.9,限时39.9🔥火爆订阅中。与传统的人工智能方法不同,生成式人工智能不仅可以学习从输入到输出的映射关系,还可以学习数据的分布模型,从而能够产生与训练数据类似但又不完全相同的新数据。生成式人工智能正在改变我们与机器的交互方式,并且具有彻底改变我们生活、工作和娱乐方式的潜力。
优惠券已抵扣
余额抵扣
还需支付
¥39.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
盼小辉丶
记录学习历程,分享学习心得,关注深度学习,欢迎交流学习.
展开
-
AIGC实战——生成模型简介
生成式人工智能是一种人工智能方法,旨在通过学习训练数据的分布模型来生成新的、原创的数据。人工智能生成内容 (Artificial Intelligence Generated Content, AIGC) 是生成式人工智能的一个具体应用和实现方式,是指利用人工智能技术生成各种形式的内容,如文字、图像、音频和视频等。本节将介绍生成模型基本概念,首先介绍生成模型的基本概念,然后,构建用于衡量生成模型性能的框架,并介绍一些重要的核心概念。然后,介绍当前主流的生成模型技术及其分类。原创 2023-08-29 07:40:16 · 54039 阅读 · 181 评论 -
AIGC实战——深度学习 (Deep Learning, DL)
深度学习 (Deep Learning, DL) 是贯穿所有生成模型 (Generative Model) 的共同特征,几乎所有复杂的生成模型都以深度神经网络为核心,深度神经网络能够学习数据结构中的复杂关系,而不需要预先提取数据特征。在本节中,我们将介绍深度学习基本概念,并利用 Keras 构建深度神经网络。原创 2023-10-25 07:40:00 · 37608 阅读 · 168 评论 -
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
在全连接网络中,首先需要将图像展平为一个一维向量,以便将其传递给第一个全连接层。为了考虑图像的空间结构,需要使用卷积神经网络 (Convolutional Neural Network, CNN) 。本节中,将介绍卷积神经网络的优势及其基本组件,并使用 Keras 构建卷积神经网络。原创 2023-11-08 07:24:58 · 4509 阅读 · 103 评论 -
AIGC实战——自编码器(Autoencoder)
自编码器 (Autoencoder) 是一种无监督学习的神经网络模型,用于学习输入数据的低维表示。它由编码器和解码器两部分组成,通过将输入数据压缩到潜空间表示(编码),然后将其重构为与原始输入尽可能相似的形式(解码)。在本节中,我们将使用 Keras 构建一个标准的自编码器,以理解自编码器的工作原理。原创 2023-11-13 07:33:03 · 2250 阅读 · 94 评论 -
AIGC实战——变分自编码器(Variational Autoencoder, VAE)
变分自编码器通过在模型中引入随机性,并限制潜空间中的点的分布来解决自编码器存在的问题。只需进行一些微小的调整,就可以将自编码器转换为变分自编码器,从而使其成为真正的生成模型。在本节中,我们介绍了变分自编码器的基本原理,并使用 `Keras` 实现了一个变分自编码器用于生成 Fashion-MNIST 图像。原创 2023-11-16 08:29:06 · 1819 阅读 · 89 评论 -
AIGC实战——使用变分自编码器生成面部图像
在本节中,我们将变分自编码器应用于人脸生成问题,并了解如何解码来自标准正态分布的样本点以生成新的人脸。此外,通过在潜空间内执行向量运算,我们可以实现一些新奇的效果,如人脸形态变换和特征操作。原创 2023-11-19 08:24:29 · 1982 阅读 · 118 评论 -
AIGC实战——生成对抗网络(Generative Adversarial Network, GAN)
生成对抗网络 (Generative Adversarial Network, GAN) 是由 Ian Goodfellow 等人在 2014 年提出的一种强大的深度学习模型,可以用于生成新数据样本,比如图像、音频、文本等。GAN 包含两个神经网络:生成器和判别器。生成器根据输入的噪声信号生成一些伪造的数据样本,而判别器则负责判断该数据样本是真实的还是伪造的。在本节中,首先阐述生成对抗网络的理论基础,然后使用 Keras 构建生成对抗网络模型。原创 2023-12-01 07:00:27 · 1932 阅读 · 95 评论 -
AIGC实战——WGAN(Wasserstein GAN)
在本节中,我们学习了如何使用 Wasserstein 损失函数以解决经典 GAN 训练过程中的模式坍塌和梯度消失等问题,使得 GAN 的训练更加可预测和可靠。WGAN-GP 通过在损失函数中添加一个令梯度范数指向 1 的项,为训练过程施加 1-Lipschitz 约束。原创 2023-12-08 08:14:44 · 2151 阅读 · 96 评论 -
AIGC实战——条件生成对抗网络(Conditional Generative Adversarial Net, CGAN)
在本节中,构建了一个条件生成对抗网络 (Conditional Generative Adversarial Net, CGAN),通过将标签作为输入传递给判别器和生成器,能够生成可控类别的图像,这是由于标签为网络提供了额外的信息,以便使生成的输出与给定的标签相关联。原创 2023-12-18 07:29:43 · 4002 阅读 · 117 评论 -
AIGC实战——自回归模型(Autoregressive Model)
自回归模型 (Autoregressive Model) 通过将生成问题视为一个序列过程来简化生成模型。自回归模型将预测条件建立在序列中的先前值上,而不是一个以随机潜变量为条件。因此,自回归模型尝试对数据生成分布进行显式建模,而不是尝试近似数据分布。在本节中,将介绍一类经典的自回归模型,长短期记忆网络 (Long Short-Term Memory Network, LSTM),并将 LSTM 应用于生成文本数据。原创 2024-01-05 08:06:02 · 3143 阅读 · 105 评论 -
AIGC实战——改进循环神经网络
我们已经学习了如何训练长短期记忆网络 (Long Short-Term Memory Network, LSTM) 模型,以学习使用给定风格生成文本,接下来,我们将学习如何扩展此模型,已获得更加优异的文本生成效果。原创 2024-01-11 08:08:30 · 3607 阅读 · 111 评论 -
AIGC实战——像素卷积神经网络(PixelCNN)
在本节中,介绍了如何使用 PixelCNN 以自回归的方式生成图像,使用 Keras 构建 PixelCNN 模型,实现掩码卷积层和残差块,以便信息可以在网络中传递,只有前面的像素可以用于生成当前的像素。最后,使用 TensorFlow Probability 库提供的 PixelCNN 函数,该函数使用混合分布作为输出层,从而能够进一步改善学习过程。原创 2024-01-17 08:15:42 · 3156 阅读 · 132 评论 -
AIGC实战——归一化流模型(Normalizing Flow Model)
归一化流模型是由神经网络定义的可逆函数,通过变量变换,直接对数据密度函数进行建模。在一般情况下,变量变换方程需要计算高度复杂的雅可比行列式,但这并不实际。为了解决这一问题,RealNVP 模型限制了神经网络的形式,使其满足两个基本条件:可逆性和易于计算的雅可比行列式。原创 2024-02-05 08:13:45 · 2419 阅读 · 88 评论 -
AIGC实战——能量模型(Energy-Based Model)
能量模型 (Energy-based Model, EBM) 是一类常见的生成模型,其借鉴了物理系统建模的一个关键思想,即事件的概率可以用玻尔兹曼分布来表示。玻尔兹曼分布是一种将实值能量函数归一化到 0 和 1 之间的函数,该分布最早由 Ludwig Boltzmann 于 1868 年提出,用于描述处于热平衡状态的气体系统。在本节中,我们将利用这一思想来训练一个生成模型,用于生成 MNIST 手写数字的图像。原创 2024-02-18 07:26:02 · 3458 阅读 · 117 评论 -
AIGC实战——扩散模型(Diffusion Model)
本节介绍了最近最先进的生成模型之一,扩散模型。介绍了去噪扩散概率模型 (Denoising Diffusion Probabilistic Model, DDPM),并利用去噪扩散隐式模型 (Denoising Diffusion Implicit Model, DDIM) 的思想,使生成过程具备完全的确定性。扩散模型由前向扩散过程和逆扩散过程组成,前向扩散过程通过一系列小步骤向训练数据添加噪声,而逆扩散过程中模型的目标是预测添加的噪声。原创 2024-02-26 08:08:44 · 3664 阅读 · 121 评论 -
AIGC实战——GPT(Generative Pre-trained Transformer)
注意力机制能够用于构建先进的文本生成模型,Transformer 是用于序列建模的强大神经网络,该神经网络不需要复杂的循环或卷积架构,而只依赖于注意力机制。这种方法克服了循环神经网络难以并行化的缺陷。Transformers 高度可并行化运算,能够在大规模数据集上进行训练。在本节中,我们将学习文本生成模型如何利用 Transformer 架构提高文本性能,并介绍自回归模型 GPT (Generative Pre-Trained transformer)。原创 2024-03-11 08:23:04 · 2827 阅读 · 136 评论 -
AIGC实战——Transformer模型
GPT 模型是一个解码器 Transformer,它逐字符地生成文本字符串,并使用因果掩码只关注输入字符串中的前一个单词。另一些编码器 Transformer,不使用因果掩码,而是关注整个输入字符串以提取有意义的上下文表示。对于一些其他任务,如语言翻译,可以使用编码器-解码器 Transformer,将一个文本字符串翻译为另一个文本字符串,这类模型包含编码器 Transformer 块和解码器 Transformer 块。原创 2024-03-25 07:18:27 · 2951 阅读 · 108 评论 -
AIGC实战——ProGAN(Progressive Growing Generative Adversarial Network)
我们已经学习了使用生成对抗网络 (Generative Adversarial Network, GAN) 解决各种图像生成任务。GAN 的模型架构和训练过程具有很高的灵活性,通过改进 GAN 架构设计和训练过程,研究人员提出了多种不同的网络架构,本节中,我们将介绍 ProGAN (Progressive Growing Generative Adversarial Network) 架构。原创 2024-04-07 09:02:04 · 2098 阅读 · 48 评论 -
AIGC实战——StyleGAN(Style-Based Generative Adversarial Network)
StyleGAN (Style-Based Generative Adversarial Network) 是于 2018 年提出的一种生成对抗网络 (Generative Adversarial Network, GAN) 架构,该架构建立在 ProGAN 基础之上。实际上,StyleGAN 与 ProGAN 的判别器是相同的,只有生成器发生了变化。本节中,我们将介绍 StyleGAN 架构。原创 2024-04-10 07:32:48 · 4622 阅读 · 58 评论 -
AIGC实战——VQ-GAN(Vector Quantized Generative Adversarial Network)
在 VQ-GAN 模型中,将几种不同类型的生成模型进行有效地组合,VQ-GAN 通过额外的对抗损失项鼓励 VAE 生成更清晰的图像。使用自回归T ransformer 构建了一系列能够由 VAE 解码器解码的编码符号。ViT VQ-GAN 进一步扩展了这一思想,将 VQ-GAN 的卷积编码器和解码器替换为 Transformers。原创 2024-04-17 08:04:26 · 7751 阅读 · 49 评论