人工智能与机器学习教程
文章平均质量分 91
人工智能与机器学习教程,带您深入了解人工智能与机器学习。该专栏从机器学习的底层逻辑开始讲起,为您解析机器学习的原理。
优惠券已抵扣
余额抵扣
还需支付
¥29.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
prince_zxill
science prince
展开
-
【最新最详细TensorFlow安装教程2024】手把手教你安装TensorFlow
今天在安装TensorFlow的时候,我在网上看到的所有教程,都是直接输入pip install……(可能只有百分之一的文章不是这样整的)。首先打开anaconda,在其中创建一个虚拟环境,Python版本可以自选。在这里,我用的是Python3.10的版本。当然这个方法并不是不可以,这个方法只有在你不用虚拟环境的时候可以生效。这里的指定位置就是你虚拟环境中Python库的位置,都是。破除了这个坑点,就可以顺利地安装TensorFlow了。这时需要找到一个.keras文件夹。原创 2024-08-16 15:49:14 · 125 阅读 · 0 评论 -
【最新CUDA安装教程2024】手把手教你安装/更新cuda(2024版)
手把手教你安装/更新cuda,全程无ai,内容都是自己实际操作过的,请放心食用下载下来是一个安装包,将其解压,打开文件夹,你能看到如下三个文件夹(bin、include、lib)还有一个文件,把这些全部复制到cuda的安装路径`C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.3`,替换即可。到此,cuda的安装工作基本完成,接下来就是收尾了。## 测试一下重复开头的命令行,这里显示已经成功地更新到了12.3的版本原创 2024-08-16 12:24:40 · 430 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch实战项目示例:深入探索图像分类、目标检测和情感分析
本篇博文中,我们通过图像分类、目标检测和情感分析这三个实际项目示例,详细介绍了如何使用PyTorch解决不同领域的问题。通过数据集准备、模型构建、训练和评估等步骤,我们深入探讨了每个任务的具体实现过程。希望这些示例能够帮助读者更好地理解和运用PyTorch进行实际项目开发。原创 2023-08-18 10:00:00 · 261 阅读 · 0 评论 -
【深入了解PyTorch】模型优化和加速:PyTorch优化技术与库的应用
在本文中,我们介绍了PyTorch中一些常用的模型优化技术,包括模型剪枝、模型量化和混合精度训练。这些技术可以帮助我们在不损失模型性能的情况下,显著提高模型的性能和效率,从而适应于不同的应用场景。当然,这些技术的应用需要根据具体情况进行调整和优化,以达到最佳的效果。无论是在边缘设备上还是在大规模服务器集群中,优化模型的性能和效率都是一个持续的挑战。PyTorch提供了丰富的工具和库,使我们能够更加灵活地探索和实验不同的优化方法,从而为深度学习模型的未来发展打下坚实的基础。原创 2023-08-17 09:30:00 · 219 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch模型解释性和可解释性:探索决策过程与预测结果的奥秘
未来,随着深度学习领域的不断发展,我们可以期待更多的解释性工具和技术的涌现,为模型的解释提供更多可能性。了解每个特征对于模型预测的重要性可以帮助我们剖析模型的决策过程。上述代码中,我们通过扰动输入数据中的每个特征,计算模型对应输出的变化,从而评估每个特征对于模型预测的影响。希望本篇博文能够帮助读者更深入地理解PyTorch中的模型解释性和可解释性技术,为解释深度学习模型的决策过程和预测结果提供有益的指导。梯度可视化是一种常用的解释模型的方法,它允许我们理解模型的决策是如何基于输入数据进行的。原创 2023-08-16 17:16:24 · 389 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch模型部署:从训练到生产
本文详细介绍了如何将训练好的PyTorch模型部署到生产环境中。我们首先将模型转换为ONNX格式,以便在不同的环境中使用。然后,我们使用TensorRT对模型进行了加速优化,以获得更快的推断速度。最后,我们使用TorchServe搭建了一个模型服务器,使得模型在生产环境中可以提供预测服务。通过这些步骤,我们可以将深度学习模型从训练到生产的整个过程串联起来,实现真正的业务应用。希望本文对于正在探索模型部署的读者们有所帮助。原创 2023-08-12 09:30:00 · 285 阅读 · 0 评论 -
TensorRT的安装:一步一步教会你如何安装TensorRT
TensorRT(Tensor Runtime)是由NVIDIA开发的一个用于深度学习推理(inference)优化的库,它可以在NVIDIA的GPU上加速神经网络模型的推理过程,从而提高模型的性能和效率。安装完成后,需要将CUDA的安装路径添加到系统环境变量中,以便系统能够找到CUDA的库文件。根据你安装的CUDA版本,将CUDNN的库文件复制到CUDA的安装目录中。要使用TensorRT,首先需要安装NVIDIA的CUDA和cuDNN库,并根据NVIDIA官方文档安装TensorRT。原创 2023-08-10 21:31:54 · 1142 阅读 · 1 评论 -
【深入了解PyTorch】PyTorch分布式训练:多GPU、数据并行与模型并行
分布式训练是指将训练过程分散到多个计算设备上,以提高训练速度和性能。在PyTorch中,分布式训练可以通过和等模块来实现。这些模块提供了不同的并行策略,适用于不同规模的训练任务。本篇博文介绍了如何使用PyTorch进行分布式训练,包括多GPU训练、数据并行和模型并行的实现方法。多GPU训练适用于简单的模型并行计算,数据并行适用于大型数据集,而模型并行则适用于大型模型。通过灵活选择适合任务的并行策略,可以在更短的时间内训练出更强大的深度学习模型。原创 2023-08-11 09:00:00 · 856 阅读 · 0 评论 -
【深入了解pytorch】PyTorch扩展:如何使用PyTorch的扩展功能
损失函数是深度学习中模型优化的核心。PyTorch允许用户自定义损失函数,以满足特定任务的需求。下面以一个简单的例子来说明如何自定义损失函数。在这个例子中,我们继承了nn.Module,然后在forward方法中计算了均方误差和惩罚项,并将它们结合起来作为自定义损失函数的输出。这样,我们就能够根据任务需求,设计出适用的损失函数。示例扩充:假设我们的任务是目标检测,需要同时考虑分类损失和边界框回归损失。这个示例中,我们考虑了分类损失和边界框回归损失,并通过调整alpha和beta来平衡两者的重要性。原创 2023-08-10 21:02:07 · 478 阅读 · 0 评论 -
【深入了解pytorch】PyTorch强化学习:强化学习的基本概念、马尔可夫决策过程(MDP)和常见的强化学习算法
强化学习(Reinforcement Learning, RL)是一种机器学习方法,其目标是让智能体(Agent)通过与环境的交互,学习如何做出正确的决策以最大化累积奖励。相较于监督学习和无监督学习,强化学习具有更强的适应性,因为它没有标记的数据,而是通过奖励信号来引导学习。本文将介绍强化学习的基本概念,马尔可夫决策过程(Markov Decision Process, MDP)作为强化学习的数学框架,并探讨两种常见的强化学习算法:Q-learning和策略梯度方法。原创 2023-08-08 19:04:16 · 1301 阅读 · 6 评论 -
【深入了解pytorch】PyTorch序列到序列模型: 实现机器翻译和聊天机器人
PyTorch是一个流行的深度学习框架,支持序列到序列模型的构建和训练。序列到序列模型是一类强大的深度学习模型,用于处理输入和输出都是序列的任务。本文将详细介绍序列到序列模型的应用场景和工作原理,并演示如何使用PyTorch实现机器翻译和聊天机器人。本文详细介绍了PyTorch中序列到序列模型的工作原理,并演示了如何使用PyTorch实现机器翻译和聊天机器人模型。序列到序列模型在NLP任务中表现优秀,并且可以通过引入注意力机制等改进来进一步提升性能。原创 2023-07-26 08:30:00 · 245 阅读 · 0 评论 -
【深入了解pytorch】PyTorch生成对抗网络(GAN)详解
本文详细介绍了生成对抗网络(GAN)的基本原理、生成器和判别器的训练过程,并提供了一个基于PyTorch的简单实现。GAN作为一种强大的生成模型,已经在图像生成、风格转换等多个领域取得了显著的成功。然而,GAN的训练也面临着一些挑战,如训练不稳定、模式崩溃等问题,需要通过更多的技巧和改进来解决。希望本文对于你理解和应用GAN有所帮助!原创 2023-07-25 08:30:00 · 481 阅读 · 0 评论 -
【深入了解pytorch】PyTorch迁移学习:加速训练与提高性能的利器
迁移学习是指利用已经训练好的模型(通常是在大规模数据上进行训练的模型)的知识来解决新的任务。通常情况下,我们会将预训练模型的权重作为新模型的初始权重,然后针对新任务对模型进行微调。这样做的好处在于,预训练模型已经学习到了通用的特征,可以作为新任务的良好初始近似,从而加速收敛并提高性能。原创 2023-07-24 08:30:00 · 236 阅读 · 0 评论 -
【深入了解pytorch】PyTorch循环神经网络(RNN)
本篇博文介绍了PyTorch中循环神经网络(RNN)的概念和工作原理,以及常见的RNN变体LSTM和GRU。这些RNN的变体通过门控机制解决了传统RNN的梯度消失和长序列建模问题,并在深度学习任务中取得了显著的成果。在PyTorch中,你可以很容易地实现和使用这些RNN模型,从而应用于各种序列数据的处理任务。原创 2023-07-23 08:30:00 · 568 阅读 · 0 评论 -
【深入了解pytorch】PyTorch卷积神经网络(CNN)简介
卷积神经网络(Convolutional Neural Network,CNN)是一种在计算机视觉任务中广泛应用的深度学习模型。它通过卷积层、池化层和全连接层等组件,能够有效地提取图像特征并实现高准确率的图像分类、目标检测和语义分割等任务。本文将详细介绍CNN的原理,并演示如何使用PyTorch实现一个简单的CNN模型。原创 2023-07-22 08:30:00 · 677 阅读 · 0 评论 -
【深入了解pytorch】PyTorch训练和评估模型
接下来,我们需要定义训练循环。在每个训练迭代中,我们将输入数据传递给模型,并计算损失函数。然后使用优化算法来更新模型的参数。原创 2023-07-21 08:30:00 · 417 阅读 · 0 评论 -
【深入了解pytorch】使用PyTorch构建神经网络模型:定义结构、选择激活函数和损失函数
在PyTorch中,可以通过创建一个继承自nn.Module的类来定义网络结构。这个类通常包含网络的各个层和操作。原创 2023-07-20 08:00:00 · 341 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch自动求导:张量梯度计算、反向传播和优化器的使用
PyTorch的自动求导机制使得深度学习的训练过程变得更加简单和高效。我们可以通过设置requires_grad=True来启用梯度计算,然后使用backward()方法执行反向传播,计算所有参数的梯度。同时,PyTorch提供了各种优化器,如SGD、Adam等,方便我们更新模型的参数。希望本文能帮助你理解PyTorch的自动求导机制以及相关的概念,为深度学习的实践提供指导和帮助。原创 2023-07-19 08:00:00 · 195 阅读 · 0 评论 -
【深入了解PyTorch】神经网络与模型训练过程详解
首先,需要将数据进行预处理,使其符合模型的输入要求。在每个epoch结束时,计算模型的性能指标(如准确率),并根据优化器更新模型参数。在本篇文章中,我们将深入探讨PyTorch深度学习中的神经网络和模型训练过程。接着,我们将介绍神经网络和模型训练的相关理论背景,以及在PyTorch中进行实际操作的过程。神经网络的训练过程是通过调整网络中的权重和偏置来实现的,以使网络的输出能够正确地预测真实结果。本文的目标是帮助读者理解神经网络和模型训练的基本概念,掌握在PyTorch中构建和训练神经网络的方法。原创 2023-07-18 08:00:00 · 298 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch张量(Tensor)的使用
在PyTorch中,张量是一个多维数组,其元素类型可以是整数、浮点数或布尔值等。张量的维度称为秩(rank),也可以称为阶数(order)。例如,一个二维数组可以看作是一个秩为2的张量。PyTorch支持的张量类型包括CPU张量(使用CPU进行计算)和GPU张量(使用CUDA进行计算)。原创 2023-07-17 08:00:00 · 578 阅读 · 1 评论 -
【深入了解PyTorch】PyTorch生态系统概述
PyTorch是一个开源的深度学习框架,被广泛应用于研究和工业界的实际应用中。PyTorch生态系统提供了许多有用的工具和库,用于简化和加速深度学习任务的开发过程。本文将介绍PyTorch生态系统中的一些重要组成部分,包括TorchVision、TorchText、TorchAudio等,并讨论如何将它们与PyTorch结合使用。原创 2023-07-16 08:00:00 · 346 阅读 · 0 评论 -
【深入了解PyTorch】PyTorch的优势
PyTorch提供了丰富的文本处理工具和预训练模型,如torchtext和transformers库,使得构建和训练NLP模型变得更加高效和简单。此外,PyTorch提供了丰富的可视化工具,如TensorBoardX和Visdom,用于实时监控和可视化训练过程,帮助开发者更好地理解模型的行为。PyTorch提供了方便的接口和工具,使得迁移学习变得简单和灵活。此外,PyTorch也提供了轻量级的模型导出和部署工具,如TorchScript和TorchServe,使得将训练好的模型部署到生产环境变得更加容易。原创 2023-07-15 16:48:47 · 3286 阅读 · 1 评论 -
【深入了解PyTorch】PyTorch的安装
PyTorch是一个基于Python的科学计算包,主要用于深度学习。它提供了一个动态的计算图,具有强大的自动微分功能,可用于训练神经网络。PyTorch由Facebook人工智能研究院(FAIR)开发并维护,其灵活且高效的特性使其在学术界和工业界都得到了广泛的应用。通过本文,您了解了PyTorch的背景和概述,并学会了如何安装PyTorch。PyTorch的灵活性和高效性使其成为深度学习领域的重要工具之一。无论是在学术研究还是工业应用中,PyTorch都有着广泛的应用场景。原创 2023-07-15 16:27:05 · 3084 阅读 · 4 评论 -
【人工智能与深度学习】图卷积网络 II
在之前的部份,我们讨论了图形卷积网络的理论,用两个方法之一来决定用在图形上的卷积,也我们现在能够用来决定我们的光谱图形卷积网络。我们定义了一个图形光谱层,比如我们叫它为hlh^lhl,这个下一层的激活值是这样:hl+1=η(wl∗hl),h^{l+1}=\eta(w^l*h^l),hl+1=η(wl∗hl),这里的η\etaη代表一个非线性激活和wlw^lwl代表一个空间性的过滤器。这个方程的右侧是等于η(w^l(Δ)hl)\eta(\hat{w}^l(\Delta)h^l)η(w^l(Δ)hl),这里原创 2023-07-09 17:29:26 · 612 阅读 · 5 评论 -
【人工智能与深度学习】图卷积网络 I
考虑一个1024 x 1024像素的图像。该图像可以看作是1,000,000维空间中的一个点。每个维度使用10个样本将生成101000000101000000个图像,这是非常多的。卷积神经网络具有强大的功能,可以很好地提取高维图像数据的表示,例如本示例。维度(图片) =106{10}^{6}106每个维度取N = 10个样本 -->101000000101000000点Fig. 1: 图1:卷积神经网络提取高维图像数据的表示形式。*图G由以下项定义:顶点 V。原创 2023-07-01 21:31:31 · 611 阅读 · 4 评论 -
Ubuntu 常见VSCode配置问题解答
Ubuntu 常见VSCode配置问题解答原创 2023-06-25 22:12:14 · 600 阅读 · 0 评论 -
【人工智能与深度学习】注意力机制和Transformer
集合vectx1vectx1到vectxtvectxt通过编码器输入。使用自我注意和更多块,获得输出表示lbracevecthtextEncrbracei1tlbracevecthtextEncrbracei1t,该输出表示被馈送到解码器。在对其施加自注意力之后,进行交叉注意力。在此块中,查询与目标语言vec。原创 2023-06-18 17:33:43 · 1313 阅读 · 5 评论 -
【人工智能与深度学习】解码语言模型
在大量数据上的训练模型优于对语言结构进行显式建模。从偏差方差的角度来看,变形金刚是低偏差(非常具有表现力)模型。向这些模型提供大量文本要比对语言结构进行显式建模(高偏差)更好。架构应通过瓶颈压缩序列-通过预测未标记文本中的单词,模型可以学到很多关于语言的知识。事实证明,这是一个很好的无监督学习目标。这样就可以轻松微调特定任务-双向上下文至关重要。原创 2023-06-10 18:35:51 · 852 阅读 · 4 评论 -
【人工智能与深度学习】自然语言处理中的深度学习
我们用"Add&Norm"来连接不同的子层(在transformer里, 我们通常用层来表示transformer模块堆叠的数量, 每个模块里存在一些子层). "Add"表示一个残差连接(详见He et al.的Deep Residual Learning for Image Recognition). 这些残差连接可以减轻梯度消失的影响. "Norm"代表层标准化(Layer Normalization).对于之前的词, 我们同时计算一个叫做**values(v)**的值, 它表示了这些词的内容信息.原创 2023-06-03 18:34:53 · 963 阅读 · 3 评论 -
Ubuntu系统下软件的安装
img/wps-config1.png)][外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GhDsPaBh-1661083221192)(…[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ybCDsoeS-1661083221192)(…[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uaD1QJl7-1661083221192)(…插件安装的时间比较长,耐心等待,不要退出,最后会提示有一个错误,这是正常的,因为。原创 2023-05-28 21:18:10 · 869 阅读 · 0 评论 -
【人工智能与深度学习】不确定性下的预测和政策学习(PPUU)
由一个尽可能接近实际未来的状态去实行一个特定的行动后,我们想要我们的模型的预测。现在我们也要对应着实际未来来计算损失,那我们就必须移除模型中的潜在变量,那是因为潜在变量给我们一个特定的预测,但算了吧,如果我们只用那些平均预测的话,这个设定反而运行得更好。这就如一个简单的网路,就如以下一样,当在一个特定的状态下,你作出一个行动,然后世界就给我们下一个状态和基效行动带来的后果。在最右边的那两个图片,我们可以看出两个不同的潜在变量们组成的集,它们有着一个真实的动作序列,和这些网路有被以随机关闭潜在的手法来训练。原创 2023-05-20 14:22:13 · 640 阅读 · 6 评论 -
【人工智能与深度学习】损失函数(第 1 部分)
但是,唯一重要的是同类别图像之间的距离小于不同类图像之间的距离。这种基于边际的损失使不同的输入具有可变数量的目标。在这种情况下,你有几个要给出高分的类别,它会求出所有类别的合页损失的总数。对于EBM,此损失函数可将想要高分的类别的损失降低,将其他类别的损失提高。*此损失函数希望将$ y [i] * x [i] $的正值拉得更近一些,并将负值推得更远一些,但是与硬边际相反,对损失有一些连续的,指数性衰减的影响。合页嵌入损失用于半监督学习,通过测量两个输入相似或不相似,它将相似的聚集,将不相似的推开。原创 2023-05-13 11:56:58 · 594 阅读 · 4 评论 -
【人工智能与深度学习】基于能量的模型(续——损失函数)
能量函数家族: E={E(W,Y,X):W∈W}\mathcal{E} = \{E(W,Y, X) : W \in \mathcal{W}\}E={E(W,Y,X):W∈W}。训练集: S={(Xi,Yi):i=1⋯P}S = \{(X^i, Y^i): i = 1 \cdots P\}S={(Xi,Yi):i=1⋯P}损失函数:L(E,S)\mathcal{L} (E, S)L(E,S)*泛函数是另一个函数的函数。在这里泛函数L(E,S)\mathcal{L} (E, S)L(E,S)是能量函数EEE的原创 2023-05-07 14:00:14 · 541 阅读 · 0 评论 -
【人工智能与深度学习】激活和损失函数(第 1 部分)
当一个比较小的缓冲用完它的最后一个样本时,我们就重头开始用那个较小的缓冲,直到比较大的类的每一个样本都被用上。我们不应该为了均衡频率,而走那条容易的路,就是那条为了均衡频率,而没有用大部份的类们的所有的样本。当一个比较小的缓冲用完它的最后一个样本时,我们就重头开始用那个较小的缓冲,直到比较大的类的每一个样本都被用上。所以,当它的梯度是零。为了了解这个方案,我们回到医学院的例子:学生在罕见疾病上花的时间与他们在常见疾病上花费的时间一样多(或许是更多的时间,因为罕见疾病通常是更复杂的疾病)。原创 2023-04-29 20:59:51 · 988 阅读 · 4 评论 -
【人工智能与深度学习】自我监督学习 - ClusterFit 和 PIRL
而主要的问题是如何定义什么是有关系和无关系。如果是监督学习,那就很明显的所有狗图片都是有关系的,而不是狗的就是无关系的。但在自我监督学习中,也不是太清楚的去定义什么是有关系和无关系,而其他主要的不同是一些如前置任务用很多数据来一次过进行推断。如果你看下损失函数,它永远都包含多张图片。在第一行,它基本上包含蓝色图片和绿色图片,而第二行它包含蓝色图片和紫色图片。但如果你去看一些拼图这或旋转这样的任务,你永远都会单独地推理一张图片。这是另一个和对比式学习有所差异的地方:对比式学习是一次过推理多个数据点。原创 2023-04-22 15:34:04 · 818 阅读 · 2 评论 -
【人工智能与深度学习】监督方法的成功故事: 前置训练
两种方法去定义自我监督学习基础监督学习的定义,即是这样,如果网路是以监督学习方式来运行,标签是以半自动方式来取得,而不是人类输入说出是什么标签的话。预测问题,也就是数据一部份是隐藏,而数据另一部份是可见。所以,目标就是去预测隐藏了或隐藏部份的属性。到底自我监督学习对于监督学习和无监督学习来说有什么不一样呢?监督学习的工作包括预先标签工作(而且一般都是人类提供的),无监督学习就只有数据样本,而没有任何监督或标签﹑正确输出。原创 2023-04-15 20:18:27 · 919 阅读 · 5 评论 -
【人工智能与深度学习】生成对抗网络(GAN)
图1:GAN结构GANs 是一种用在无监督机器学习的神经网路。它们包含两个对抗模块: 生成器 和 代价网络 。它们都互相竞争,代价网络 去掉冒牌货,而同时 生成器 就尝试生成接近真实的冒牌货来骗这个辨别器 x^\hat{x}x^ 。在这种互相竞争后,模型就学习到一个能生成十分真实的冒牌货的生成器。它们能用在一些任务,比如预测未来或在训练特定数据集后生成图片。图2: 由随机变量绘制出GANs众多GANs多是是能量基础模型 (EBMs)的例子。比如这样,代价网络是被训练对接近真实的数据分布的输入只输出低代价,真原创 2023-04-08 13:39:40 · 1202 阅读 · 2 评论 -
9.2【人工智能与深度学习】世界模型和生成对抗网络
自动化智能系统是由四个主要模组组成的(图1)。第一个模组是用来观察和计算世界表征的感知模组。这通过观察而计算出来的世界表征其实并不完整,这是因为1)主体并不能观察到整个宇宙;2)观察到的也并不一定准确。有一点要注意的是,在前馈模型中感知模组只存在于第一个时间步中。第二个模组是基于观察到的表征来计算有可能的下一步的演员模组(也叫策略模组)。第三个模组是模型模组。当给定世界表征(有时候还有隐变量)后,这模组可以用来预测下一步行动后世界表征将会变成怎么样。这预测会被传到下一个时间步来当作下一个世界表征。原创 2023-03-31 21:37:22 · 334 阅读 · 1 评论 -
【人工智能与深度学习】判别性循环稀疏自编码器和群体稀疏性
当预训练完成后,我们只保留网络的编码器,把它放到目标网络中(通常为第一层)当作一个特征提取器,然后再在它之上添加新的网络层。我们可以用提取的特征当作输入变量进而训练一个新的组稀疏卷积自编码器实例(instance)。这样的好处是可以找到能重建输入变量的稀疏隐变量,让神经网络学习到信息含量丰富的隐变量。这样一来,我们可以学习到稀疏的组别(某些组特征的权重变为0),而每组里面通常包含相似的特征。是三维度的立方体,我们可以把它展开变成一个树形图(每个节点/每条边是原来立方体的顶点/边),每个子树是一个组。原创 2023-03-25 12:00:59 · 1139 阅读 · 2 评论 -
【人工智能与深度学习】生成模型 - 变分自动编码器
接下来,我们介绍了变分自编码器(Variational Autoencoders,VAE),它是一种生成模型(generative model)。可以看到,当方差为1时,表达式到达最小值。我们用log方差而不是普通的方差,因为我们想要使方差为非负的,对其求log可以保证我们有方差的全部值域,这样可以试训练更加稳定。然而,这么做的问题是,当我们用梯度下降训练VAE模型时,我们不知道该如何通过采样部分做向后传播。如果我们重复100次,我们可以得到100个点,这样会大致形成一个球,因为这是一个正态分布。原创 2023-03-18 19:48:22 · 768 阅读 · 1 评论