自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(108)
  • 收藏
  • 关注

原创 java基础1

变量:在程序运行过程中,其值可以发生改变的量。从本质上讲,变量是内存中的一小块区域,其值可以在一定范围内变化。变量的定义格式:(3)还可以在同一行定义多个同一种数据类型的变量,中间使用逗号隔开。但不建议使用这种方式,降低程序的可读性。// 定义int类型的变量a和b,中间使用逗号隔开int c,d;// 声明int类型的变量c和d,中间使用逗号隔开c = 30;d = 40;变量的使用:通过变量名访问即可。使用变量时的注意事项:1. 在同一对花括号中,变量名不能重复。

2024-11-01 18:11:38 862

原创 力扣day2

在Python中,你需要先将整数转换为字符串,然后再将字符串转换为列表,最后返回值时再转化为int就行,这个必须要有4位数字,而题目刚好就是四位数字的要求。,排完序这个结果就出来了,默认是按升序的,所要求的最小公倍数,如果余数不为0,那么。,但数字不能直接转化为list,原因是。5 和 2 的最小公倍数是 10。,你拥有的数位包括:两个。的最小公倍数(正整数)。中所有数位都必须使用。,请你返回可以得到的。

2024-10-22 21:27:16 303

原创 8.扩散模型的未来---GPT及大模型(3)完结

基于人类反馈的强化学习,简单来说就是对GPT生成的内容进行打分,符合标准的回答给予较多的回报,鼓励模型生成这种回答,对于不符合标准的回答给予较少的回报,抑制模型生成这种回答。模型的泛化能力指的是模型在训练集和测试集之间的性能表现。(1)当训练数据量和模型参数数量不断上涨时,gpt及大模型的表现会呈现出上涨的趋势,并在达到某一个点时发生突变,也是拥有“涌现能力、扩散趋有同样的上涨趋势,以及是否会有涌现能力是值得探索的,但是由于扩散模型的训练是非常消耗资源的,所以增大模型参数训练的优化问题也需要考虑进来。

2024-10-17 10:14:39 610

原创 8.扩散模型的未来---GPT及大模型(2)

GPT(Generativepre-Training)是指使用生成式预训练的语言模型,是NLP领城中的一种强大的模型。初代的GPT是在2018年由 OpenAI提出的,之后更新为GPT2GPT-3、InstructGPT,以及后续一系列变体模型(统称GPT-3.5系列),最终发展到如今的智能对话搜索引擎ChatGPT,以及多模态引擎Visual ChatGPT和GPT-4。初代的GPT-1已经在多种任务中达到了SOTA,而之后的GPT甚至可以解决未经过训编的新任务(Zero-shot),并可

2024-10-16 16:46:44 933

原创 8.扩散模型的未来---GPT及大模型(1)

在微调时,通常是在一个较小的、与预训练模型类似的数据集上对模型进行微调,以适应特定的任务微调技术的具体实现方式是将预训练模型的所有或部分层参数作为初始参数,然后通过训练过程更新这些参数,使其适应特定的任务。例如,对于模型中的线性变换Y=AX,可以按列或行拆分矩阵A,并将其分别放置在两个不同的GPU上进行计算,然后在两个GPU之间进行通信以获得最终结果,这种方法可以扩展到更多的GPU和其他可拆分的操作符上。例如,在扩散模型前向过程中完全抹去数据中的信息,并将其等效于先验分布的假设,可能并不总是成立的。

2024-10-16 11:09:20 1117

原创 7.跨学科应用

1.基于深度学习的分子性质预测和新分子生成算法,指通过利用神经网络模型等习大量分子数据在保证分子稳定性和活性的前提下,生成新的药物分子,并预测新分子的药效和毒副作用等,以此减少新药物的研发时间和成本的算法。人工智能药物研发是指利用人工智能技术研发新药物的过程和方法,人工智能拔术可以用于药物研发的不同阶段,包括药物发现、分子设计、药效预测、毒性评估等可以加速药物研发的过程、提高药物的效力和安全性。基于扩散模型的医学影像重建,Song 等人利用基于分数的生成模型来重建与观察到的测量结果一致的影像图。

2024-10-15 21:44:28 510

原创 6.将扩散模型与其他生成模型的关联(2)

(x|x~)是通过恢复似然训练的,即在给定高噪声样本后,使用低噪声数据x的条件似然值作为目标函数,其目的是在给定更高噪声的噪声数据的情况下,最大化特定低噪声水平下数据的条件概率。条件EBM可以较好地最大化恢复似然,这是因为原数据的分布可能是多模态的,而在给定加噪样本后,原数据的条件概率会比原数据的边际似更容易处理。同时 Gao 等人还证明了,当每次加入的噪声强度足够小时,扩散恢复似然的最大似然训练与 ScoreSDE的分数匹配训练是近似的,并进一步建立了基于能量的模型与扩散模型的关系。

2024-10-12 20:01:23 678

原创 6.将扩散模型与其他生成模型的关联(1)

GAN通常由两个神经网络组成:生成器G和判别器 D,生成器的目是生成与训练数据相似的新数据,而判别器的目标是区分生成器生成的伪造数据和实数据。对于潜在空间中的扩散模型,ELBO 中的交叉熵项是难以处理的,但如果将基于分数的生成模型看作是一个无限深的 VAE,那么交叉熵项可以被转化为一个可处理的分数匹配目标。在本章中,我们首先介绍其他5种重要的生成模型,包括变分自编码器抗网络、归一化流、自回归模型和基于能量的模型,分析它们的优点和局限性,并说明这些生成模型是如何通过纳入扩散模型而得到促进的。

2024-10-10 10:46:15 880

原创 5.将扩散模型应用于具有特殊结构的数据

该模型的前向过程向邻接矩阵的上三角矩阵,加入独立的高斯噪声来保证加噪矩阵也是对称的,然后使用神经网络来拟合加嗳矩阵的分数的数(有良定义的)。Niu等人证明了如果生成过程中使用的分数模型是置换不变的,那么生成的样本也是置换不变的,并采用了称为EDP-GNN的置换等变图神经网络来估计分数函数,实验结果表明,使用EDP-GNN来参数化噪高得分模型可以生成置换不变的无向无权图。比如,经典扩散模型所依赖的分数的函数仅在连续装据域才有定义,而对于离散型数据没有定义,或者数据位于低维流形式上时,就会出现问题。

2024-10-09 11:07:54 678

原创 4.扩散模型的似然最大化(2)

解决的方案是,使用重要性采样,在Iikelihood weighting的基础上,变换时间t在从0到T上的分布,可以得到任意方式加权的损失。在 iDDPM中,Nichol和 Dhariwal提议,通过用某种形式的线性插值来参数化并学习逆向方差,使用一种混合目标对其进行训练,以得到更高的对数似然和更快的采样速度,且不损失样本质量。,一些同时期的工作证明,经过适当的加权,存在一个可高效计算的变分下界,我们可以直接使用修改的损失函数来训练我们的扩散模型,从而最大化。在扩散模型的经典框架中,逆向过程p。

2024-10-08 19:45:11 320

原创 4.扩散模型的似然函数最大化(1)

在扩散模型中,我们希望优化生成样本分布的对数似然,也就是Eq0logp0,其中q0是真实样本的分布,p0是生成的样本的分布。下,产生数据集中的所有样本的概率是最大的。但在计算机中,多个概率的乘积结果并不方便计算和储存,例如,在计算过程中可能发生数值下溢的问题,即对比较小的、接近于0的数进行四舍五入后成为0。在经典的扩散模型(如DDPM)中,前向过程中的噪声进程是手工调试的,没有可训练的参数。似然函数是一个关于模型参数0的函数,当选择不同的参数0时,似然函数的值是不同的,它描述了在当前参数。

2024-10-03 16:57:38 576

原创 3.基于分数的生成模型

基于分数的生成模型(SGM)的核心是Stein分数(或分数函数)。给定一个概率密度函数p(x),其分数函数定义为对数概率密度的梯度Vxlogp(x)。生成模型通过学习并建模输入数据的分布,从而采集生成新的样木,该模型广泛运用于图片视频生成、文本生成和药物分子生成。扩散模型是一类概率生成模型,扩散模型通过向数据中逐步。

2024-10-02 15:49:09 945

原创 扩散模型(2)--1

生成模型通过学习并建模输入数据的分布,从而采集生成新的样木,该模型广泛运用于图片视频生成、文本生成和药物分子生成。扩散模型是一类概率生成模型,扩散模型通过向数据中逐步。

2024-09-29 22:27:37 1109

原创 扩散模型(1)--AIGC与相关技术

包括人脸生成、人脸替换、人物属性编辑、人脸操控、姿态探控等 AIGC 技术,以及编辑图像、视频内容、图像生成、图像增强、图像修复等 AIGC 技术,如美颜换脸、捏脸、复刻及修改图像风格、AI绘画等。,包括文本转音频、语音转换、语音属性编辑等生成或者编辑语音内容的AIGC技术,以及音乐合成、场景声音编辑等生成或者编辑非语音内容的AIGC技术,如智能配音主播、虚拟歌手演唱、自动配乐、歌曲生成等。,主要包括文章生成、文本风格转换、问答对话等生成或者编辑文本内容的 AIGC 技术,如写稿机器人、聊天机器人等。

2024-09-24 10:59:39 368

原创 python如何跨文件调用自己定义的函数

当自己定义函数过多时,只有一个python文件时代码会很长,不易理清代码框架,比如下面这段代码,如何隐藏具体函数细节呢?自定义函数在dataset文件夹下的minst.py中,然后导入自定义的函数名比如load_minst_gz即可,当相对路径导入报错时候就导入绝对路径即可。如果没有上面的三个库也会报错,原因是这个函数需要用到上面的那三个库,而不是简单的把def函数内容复制过来。2.定义两个python文件,需要注意的时封装的函数也要导入相关的库比如。

2024-09-22 21:36:01 466

原创 研究生第一次刷力扣day1

先用len函数求出数组的长度n,然后一个个遍历数组中的内容,具体方法就是采用双层循环,i和j,i在数组长度内,当i固定时,去完全遍历j,再一次一次遍历i,如果数组内的内容相加等于target则返回下标。,请你在该数组中找出和为目标值target。的那两个整数,并返回它们的数组下标。1.给定一个整数数组。

2024-09-21 19:37:57 1926 5

原创 图神经网络模型应用(8)--2

文档中句子之间的关系,词之间的关系 都可以被利用。传统的卷积神经网络主要利用的是一个小邻域上的本地信息,对于远程的关系处理起来很难,但是 语义分割的任务上正好大量存在着可能的远程关联。离)建立联系,形成一个图,然后图LSTM(Graph LSTM)的模型对这些超像素构建的图进行建模,从而更好地利用远程的关联性辅助本来的分割任务。整个训练过程以批处理的形式进行,对于每个目标节点,我们对它周围的邻居进行重要性采样,然后经由图中右上角所展示的两层信息聚合(图卷积),得到节点的嵌入表示。

2024-09-19 10:55:15 742

原创 图神经网络模型的应用(8)--1

前面介绍过,按照元素和层级来划分,图数据上的任务一般可以分为节点上的任务、边上的任务和图上的任务。而在实际应用中,大部分图神经网络的应用都集中在节点分类、链路预测和图分类上;在设计一个新的图神经网络模型时,我们常使用的标准数据集也都基本来自这三个任务。我们暂时不考虑图数据的具体领域,先来介绍图神经网络在这些标准任务上的使用。1.1节点分类节点分类是图神经网络上最普遍的一个任务。沿用本书惯用的符号,给定一个图G={V,}, 假设已知其中部分节点Vtrain的标签Y∈Rn×8(n。

2024-09-19 09:27:33 843

原创 知识图谱与异构图神经网络(7)--2

编码器:结构感知卷积网络采用了带权重的图卷积网络进行编码,不同于图卷积网络,它对每个关系。知识图谱作为一种重要而特殊的图结构,在各个领域有着广泛的应用,知。由于结合了知识图谱嵌入的得分方式,又考虑了不同边的类型,CompGCN 在。的章节中也提到过,它本质上是对图卷积网络模型的一个扩展,在图卷积网络。的基础上加入了边的信息,因此也可以被用来学习知识图谱中的实体嵌入。把知识图谱拆分为多个单关系的同构图,即知识图谱中的每种关系对应一个子。础上增加了带权重的图卷积网络的编码,因此可以加入知识图谱的结构信息和。

2024-09-18 10:23:16 937

原创 知识图谱与异构图神经网络(7)--1

例如,对于三元组(姜文, 出演,让子弹飞),“姜文”和“让子弹飞”的类型完全不同,一个是人物, 一个是电影。而在更高维度的空间中,超平面则是一个更高维度的“平面”,它将空间分割成两个部分)随着对知识图谱相关研究的深入,出现了基于不同思路的知识图谱嵌入方法,这些方法定义了不同的嵌入空间或者不同的损失函数。知识图谱的表示学习,或者说知识图谱嵌入,是将实体和关系映射到一个低。传统的知识图谱推理一般只推测已经出现过的实体之间的关系,称之为转。型,几乎涵盖了所有的匹配关系,但是它的参数过多,导致不能有效地处理大。

2024-09-17 17:56:50 932

原创 其他图嵌入方法(6)

(3)浅层图嵌入方法只能采用直推式学习,如果它们要学习一个节点的嵌入, 则这个节点必须是在训练过程中出现的,对于未出现过的节点则无能为力。相比之下,图神经网络(如图卷积网络)的参数是用来将节点本身的属性向量映射到一个更低维的向量,与节点的数量无关,只与节点属性向量的维度。(1)浅层图嵌入方法是对图中出现的所有节点直接习得最终的表示,它们的编码器是将每个节点线性映射到最终的嵌入向量f(x)=Zx, 因此参数。(2)浅层图嵌入方法通常只考虑图的结构,而忽略了节点本身的属性。实际上使得图的嵌入尽量光滑。

2024-09-17 13:38:43 925

原创 图神经网络模型扩展5--3

这个措施使得GraphSAGE 的复杂度可以维持在一个固定的开销,与其他消息传递网络相比,更容易扩展到大规模的图上。PinSAGE基于GraphSAGE做了微小的改进,在采样的时候加入了邻居节点重要性的考虑,通过随机游走,被访问越多次的节点,被采样的概率就越大。在传统的图注意力网络中,没有考虑到边的信息,但。很大),图卷积网络的计算量是很大的,所需要的内存也是很大的。可以看出,上式和图卷积网络的公式非常相似,唯一的区别是根据边的类型r不同,选择了不同的参数W。到,在一个图中,每个节点的重要性是不一样的。

2024-09-16 22:10:43 804

原创 图神经网络模型扩展(5)--2

预训练最大的优势是通过输入巨量的数据,使预训练好的模型只需通过微调就能迁移到不同的数据上,并在不同的目标任务上得到巨大的效果提升。找到这个节点周围的上下文图,上下文图指的是到中心节点的距离大于等于r₁、小于等于r₂ 的所有点构成的子图,r₁ 被限制小于K, 所以上下文图可以和节点的邻接域有部分重合,重合的这些节点被称为上下文锚节点。找到上下文图之后,我们定义一个额外的辅助图神经网络,对上下文图进行编码,然后对所有上下文锚节点的嵌入求平均,作为一个节点上下文的向量表示,图G中节点v 的上下文向量记为。

2024-09-16 20:42:14 788

原创 图神经网络模型的扩展(5)--1

另外,考虑到那些粗化的节点并没有一个有意义的排序,如果直接进行池化,就需要一个额外的表来存取这些节点信息,造成了内存的浪费和低效,也影响平行计算的实现,而切比雪夫网络稍微做了改进,它利用Graclus的机制先把粗化过程做成一个二叉树,然后通过对最终的粗图进行节点排序并进行倒推,得到原图的节点排序,从而实现了一个类似普通卷积网络中的一维池化操作。虽然谱聚类是一个很好的图聚类方法,但是在涉及多粒度、多层的图聚类时依然不够高效,因此在大图和多层池化的场景下, 我们可能需要选择更高效的图池化方法。

2024-09-15 11:01:57 897

原创 深入理解图卷积网络(4)

图神经网络的滤波性质,我们先来想一个问题:在图信号中,究竟是什么频率的信号起了更大的作用?在得到重构的图信号之后,我们以它为输入,训练一个两层的多层感知机,在图数据上做节点分类任务。D -1/2AD-1/2 xW实际上是一个没有加自环的图卷积网络,在加了自环并做相应的正则化后,D-1/2(A+为了简化分析,假设图论傅里叶变换所用的是正则化后的拉普拉斯矩阵 L=I-D-1/2AD-1/2,那么D-1/2AD-1/2x=(I-L)X=U(I-假设一个图是联通的,并且不是一个二分图,我们对它上面的一个图信号。

2024-09-12 18:36:20 861

原创 图神经网络介绍3

当我们要判断两个图是否同构时,先通过聚合节点和它们邻居的标签,再通过散列函数得到节点新的标签,不断重复,直到每个节点的标签稳定不变。Weisfeiler-Lehman 测试最大的特点是其对每个节点的子树的聚合函数采用的是单射的散列函数。与Weisfeiler-Lehman测试一样,在表达网络结构的时候,一个节点的表征会由该节点的父节点的子树信息聚合而成。数据,两层图卷 积网络即可达到很好的效果,叠加更多的层并不一定能提升模型的表现,反而 可能导致过平滑的问题。之后发展出的各种各样的图神经网络大都可以归。

2024-09-12 00:03:20 1018

原创 图神经网络模型介绍2

空域图神经网络出现得更早,并在后期更为流行。它们的核心理念是在空域上直接聚合邻接点的信息,非常符合人的直觉。如果把欧几里得空间中的卷积扩展到图上,那么显然这些方法需要解决的一个问题是:如何定义一个可以在不同邻居数目的节点上进行的操作,而且保持类似卷积神经网络的权值共享的特性。早期的图神经网络就是直接从空域(顶点上的信号)的角度来考虑的。它的基础是不动点理论。它的核心算法是通过节点的信息传播达到一个收敛的状态,基于此进行预测(由于它的状态更新方式是循环迭。

2024-09-11 09:28:18 912

原创 图神经网络模型介绍(1)

在实际应用中,我们通常可以叠加多层图卷积,得到一个图卷积网络。我们以H¹ 表示第L层的节点向量,W¹表示对应层的参数,定义。参数是没办法迁移的,因此谱域图神经网络通常只作用在一个单独的图上,这大大限制了这类模型的跨图学习和泛化能力。接下来,我们从切比雪夫网络的公式(3.12)出发,对图卷积网络进行推导。下面,我们以一个常用的两层图卷积网络来解释图卷积网络是怎么对节点。从图信号分析的角度考虑,我们希望这个过滤函数g 能够有比较好的局部化,常作用在图拉普拉斯矩阵的特征值矩阵上,在换到另一个图上时,这些卷积核。

2024-09-09 15:02:15 954

原创 图神经网络(2)预备知识

对于接触过数据结构和算法的读者来说,图并不是一个陌生的概念。如果图里的边不仅表示连接关系,而且具有表示连接强弱的权重,则这个。从图的某个顶点出发,沿着图中的边访问每个顶点且只访问一次,这叫作。在图上模拟一个热扩散的过程,φ(t)是图上每个顶点的热量分布,热量传播。如果一个图的每个边都有一个方向,则称这个图为有向图。图的同构指的是两个图完全等价。很显然,这个大于等于0的,所以L是半正定的。拉普拉斯矩阵的另一个重要作用是作为图上的离散拉普拉斯算子。然地,我们把拉普拉斯算子的特征函数换成拉普拉斯矩阵的特征。

2024-09-07 19:46:53 1279

原创 图神经网络基础(1)

由于图结构的普遍性,将深度学习扩展到图结构上的研究得到了越来越多的关注,图神经网络(GraphNeuralNetworks,GNN)的模型应运而生。实体被叫作图的节点,而实体和实体之间的关系构成了图的边。我们介绍了各种各样的图,很容易发现图的研究是横跨很多不同的领域的,而在很多任务上,研究图的性质都需要具有领域知识。大部分图结构上的边并非只能取值二元的{0,1},因为实体和实体的关系不。当我们任意变换两个节点在图结构中的空间位置时,整个图的结构是不变。(3)图上的任务:包括图的分类、图的生成、图的匹配等。

2024-09-06 09:39:47 1067

原创 深度学习--机器学习相关(3)

有监督学习是一种学习算法,它从标记的训练数据学习,每个训练示例都包括输入和相应的输出标签。有监督学习的目标是学习出一个映射规则,使得模型能够对新的、未见过的数据做出准确的预测或决策。"Depthwise",它指的是深度可分离卷积,这是一种卷积操作,可以分解为两个较小的操作:深度卷积和逐点卷积,从而减少模型的计算复杂度和参数数量。在特征工程中,有很多高维度的数据,如果在高维度空间直接衡量他们的距离,也。的高维数据降维成低维数据。整个流程非常的简单,而且模型的准确度也比较高,但是计算量大,尤其是当训练集的。

2024-09-04 17:56:42 1269

原创 深度学习--机器学习相关(2)

能地让所有的训练集都预测正确,这样往往是过拟合了,通过限制,让模型只能实现大多数样本的正确预测,这样就可以自发地避免一些对噪声数据、异常数据的学习,从而学到真实。在训练的时候不仅仅包括前向传播和梯度下降,还多了一个反向传播的过程(此处的反向传播不是常说的反向传播梯度下降的反向传播)。一张彩色图片同样是由像素点组成的,但是每一个像素点都是彩色的。在一个神经网络中,可以有成百上千的参数,但是并不是每一个参数都是有用的,不是。知识,从而正确地推导这道题的答案,这个就是模型的泛化能力,也是想要的能力;

2024-09-04 15:47:01 1318

原创 深度学习--机器学习相关(1)

过拟合是指模型在训练数据上表现得很好,但是在新的、未见过的数据上表现不佳,即模型的泛化能力差。正则化通过在损失函数中添加一个额外的项来实现,这个额外的项通常与模型的复杂度相关,目的是惩罚模型的复杂度。算法通过计算损失函数在当前参数下的梯度,然后沿着梯度的反方向更新参数,以此减小损失函数的值。梯度平缓通常指的是在梯度下降算法中,当梯度(即损失函数对参数的偏导数)的值变得非常小,接近于零时,参数更新的幅度也会变得很小,这意味着我们接近了损失函数的最小值。在模型的内部,数据经过了非线性变换很难能够保持同分布。

2024-09-04 10:56:59 1378

原创 python与pytroch相关

1.pytroch模型类PyTorch 是一个易学且清晰明了的深度学习库。本节讲解如何查看一个模型的结构。一般来说,PyTorch的模型都会定义成一个类,然后在主函数中直接实例化这个类。比如类是设计图,实例化就是按照这个设计图做出来的实物。(1)必须要继承nn.Module。所以假设在阅读一个新的PyTorch编写的代码时,只需要找到nn.Module,就可以知道代码中定义模型的地方了。该模型本质上就是一个函数, 一个映射关系,输入数据时可以根据这个。

2024-09-03 21:59:48 872

原创 深度学习实战4--GAN进阶与优化

当网络层数较多时,反向传播过程中梯度会通过多层权重进行连乘,这可能导致梯度变得非常小,以至于网络中的权重更新非常缓慢,从而使得训练过程非常缓慢甚至停滞.则是指在训练过程中,梯度随着层数的增加而指数级增长,导致权重更新过大,从而使模型训练变得不稳定。神经网络的最大的优点在于泛化能力,理论上足够大的神经网络可以拟合各种。由于截断操作是一个突变的过程,无法计算梯度,如果不关闭梯度,将会报错。先关闭这一层的参数的梯度下降,否则无法进行截断。的效果好,在第100代的时候,就可以生成多样化、图片清晰的手写数字。

2024-09-02 21:39:33 1051

原创 深度学习实战3--GAN:基础手写数字对抗生成

生成器 G 是创造者,负责生成新的数据实例,而判别器 D 是鉴别者,负责评估数据实例的真伪。两者相互竞争,推动对方不断进步,从而提高生成数据的质量。缩进错误很难分清,代码又一样,写的时候需要仔细看清,找了好久才发现这个错误。是Binary_Cross_Entropy的缩写,可以理解为二分类问题。的任务是生成,用两个模型相互对抗,来增强生成模型的效果。的任务是生成,用两个模型相互对抗,来增强生成模型的效果。手写数字,希望生成类似的手写数字的图像。(1)GAN 的损失函数与BCE。给定条件进行指定数字的生成。

2024-08-30 16:54:17 861

原创 深度学习实战2--MNIST 手写数字分类(代码在末尾)

(1)了解什么是MNIST数据集;(2)了解卷积神经网络对图片处理的流程;(3)能够看懂Python编写的对图片分类任务的代码;(4)在一定程度上掌握处理类似任务的编程能力。注意:本章节使用开源机器学习库PyTorch2.简介刚开始接触编程的时候一定都见过”,而MNIST数据集,就是计算机视觉中的“Hello World“数据集,这个经典的手写图像数据集已然成为了分类算法的基础。图像的基本元素pixel。每一个pixel。

2024-08-29 18:39:17 915

原创 深度学习实战1--决策树与随机森林(最新版本不报错)

1.乳腺癌数据集简介乳腺癌数据集包含了美国威斯康星州记录的569个病人的乳腺癌的病情,包含30个维度的生理指标数据(特征),以及乳腺癌是恶性还是良性的标签。因为这是一个二分类问题,也叫二类判别数据集。这数据主要包含569个样本。每个样本有30个特征(30个生理指标数据)和1个标签(良性还是恶性)。对于本次任务,并不需要了解30个生理指标的含义。只要知道,这30个指标和恶性、良性之间存在某种关联。3.思路。

2024-08-28 14:05:23 872

原创 深度学习11--GAN进阶与变种

子,假设两个图片都加上百分之百的服从正态分布的噪声,那么这张图片不管原来如何,现在一定服从同一个分布。去卷积、反卷积、上采样,都是一个概念,都是扩大特征图尺寸的,英文是。进行,增加的正态分布的噪声的方差逐渐减小,以至于最后去掉噪声,这也是退火算法的一。着感受野的大小,卷积核越大,感受野就越大,但是相应的计算量也会成倍地增加。项是对每一个样本都进行独立的梯度惩罚,因此需要保证每一个样本的独立性,所。图片上增加噪声,以试图增加两个分布的宽度,来让他们产生重叠。(1)生成图像应该更接近原始图像,而且生成的。

2024-08-17 15:00:16 516

原创 深度学习10--强化学习

强化学习(增强学习、再励学习、评价学习简称RL)是近年来机器学习领域最热门的方向之一,是。分清楚回报和奖赏的区别:因为强化学习的目的是最大化长期未来奖励,寻。略,在策略不变的情况下,只会选择价值最大的那一个动作。动作选择策略的未来回报的期望。中,这个“策略”就是一个神经网络,输入是环境状态,输出是动作。境重复100次决策,可能会有不同的决策产生。如果看重的是长期的回报,那就是深谋远虑。训练集中的数据都是统一的格式。中都有可能执行,只是执行的概率非常的小。性策略,因为是从概率分布中采样,同样的环。

2024-08-17 14:10:11 306

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除