自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 ACGAN理论与实战

ACGAN的优势在于,通过引入辅助分类器,模型不仅能够学习生成图像的真实性,还能够学习图像的类别信息,这有助于生成更多样化和更高质量的图像。辅助分类器的存在使得判别器在训练过程中不仅需要区分图像的真实性,还需要学习图像的类别信息。:在训练过程中,生成器和判别器会相互竞争。生成器试图生成越来越真实的图像来欺骗判别器,而判别器则试图更准确地区分真实图像和伪造图像,同时识别图像的类别。:判别器的输入是一幅图像(可以是生成器生成的伪造图像或真实图像),判别器需要判断这幅图像是否为真实的图像,并尝试识别图像的类别。

2024-05-31 16:05:41 388 1

原创 Semi-Supervised GAN

在SS-GAN中,判别器不仅需要区分真实数据和生成数据,还需要对真实数据进行分类。因此,判别器的输出层通常设计成有𝐾+1K+1个节点,其中𝐾K是分类任务的类别数,额外的一个节点用于判断输入是否为生成数据。使用带标签的数据对判别器进行训练,使其能够准确分类不同类别的数据,同时区分真实数据和生成数据。使用未带标签的数据对判别器进行训练,主要目的是增强判别器区分真实数据和生成数据的能力。生成器的训练目标是最小化判别器将生成样本判定为假的概率。生成器的目标保持不变,试图生成逼真的数据样本,以欺骗判别器。

2024-05-24 17:50:55 265 1

原创 CycleGAN实战

CycleGAN是一种非常流行的图像到图像转换模型,它不需要成对的训练样本。这使得CycleGAN特别适用于那些难以获取精确配对数据的任务,如风格转换、季节转换或照片增强等应用。

2024-05-17 12:04:42 324 1

原创 Pix2Pix理论与实战

Pix2Pix是GAN的一个特定应用,专注于图像到图像的翻译任务。Pix2Pix的训练数据是配对的图像对,即每个输入图像都有一个对应的目标输出图像。Pix2Pix的生成器网络尝试将输入图像转换成逼真的目标输出图像,而判别器网络则评估生成的图像与真实目标图像之间的差异,以提供反馈信号,帮助生成器改进生成过程。生成器负责生成逼真的数据,而判别器负责评估生成的数据与真实数据之间的差异。GAN和Pix2Pix的成功部分归功于它们的对抗性框架,其中生成器和判别器之间的竞争推动了模型的学习和改进。

2024-05-03 22:28:35 56

原创 CGAN入门|生成手势图像

CGAN(条件生成对抗网络,Conditional Generative Adversarial Network)是生成对抗网络(GAN)的一种扩展,它允许用户指定生成数据的条件或标签,从而生成特定类型的数据。这种模型由两部分组成:生成器(Generator)和判别器(Discriminator),它们在模型训练过程中相互竞争。

2024-04-26 20:45:31 243 1

原创 人脸图像生成(DCGAN)

设置环境:设置参数:设置数据集:初始化模型:设置生成器:设置判别器:设置损失函数:训练模型:显示结果生成对抗网络(GAN)是一种深度学习模型,通常用于生成视觉艺术效果令人印象深刻的合成图像。

2024-04-12 17:40:36 287

原创 生成对抗网络(GAN)入门

生成对抗网络(GAN,Generative Adversarial Networks)是一种深度学习模型,由Ian Goodfellow在2014年提出。GAN是通过对抗过程在生成器(Generator)和判别器(Discriminator)之间进行训练,以产生几乎无法与真实数据区分的人造数据。

2024-04-05 19:41:40 178 1

原创 天气预测模型

准备工作:加载数据:准备数据:可视化数据:​​​​​​填补空缺值:搭建模型:训练模型:

2024-03-29 22:03:02 223 1

原创 1. 一文搞懂LSTM(长短期记忆网络)

LSTM(长短期记忆网络)是一种特殊的RNN(递归神经网络)架构,用于处理序列数据。与传统的RNN相比,LSTM的关键优势在于它能够学习长期依赖关系,避免了在训练过程中出现的梯度消失和梯度爆炸问题。这使得LSTM在许多需要考虑时间序列数据的任务中非常有效,比如自然语言处理、语音识别和时间序列预测等。

2024-03-15 21:09:40 501 1

原创 RNN-心脏病预测

循环神经网络(RNN)是一种用于处理序列数据的神经网络,特别擅长时间序列分析、自然语言处理等任务。RNN通过循环单元处理序列中的每个元素,能够保持前一个状态的信息,并利用这一信息影响后续处理。与传统神经网络相比,RNN的关键特性在于其内部的循环结构,使其能够处理任意长度的序列数据。然而,RNN也面临梯度消失或爆炸的问题,影响长期依赖的学习能力。使用(0.0001)的学习率初始化 Adam 优化器。Adam 优化器是随机梯度下降的扩展。

2024-02-23 19:01:43 355

原创 seq2seq翻译-Pytorch复现-LSTM

带有注意力机制的序列到序列(Sequence-to-Sequence)模型。

2024-02-02 03:53:47 379

原创 seq2seq翻译实战-Pytorch复现

output_size,输出大小是隐藏层的大小 hidden_sizeself.gru = nn.GRU(hidden_size, hidden_size): 创建一个GRU(Gated Recurrent Unit)层,用于处理解码器的输入序列。输入大小和输出大小都是隐藏层的大小 hidden_sizeself.out = nn.Linear(hidden_size, output_size): 创建一个线性层,用于将GRU的输出映射到输出词汇表的维度。输入大小是隐藏层的大小,输出大小是输出词汇表

2024-01-26 04:30:30 894 2

原创 seq2seq详解

seq2seq是什么:seq2seq是一种常见的NLP模型架构,并不是指某一个具体模型。是指从一个文本序列得到一个新的文本序列。典型任务有机器翻译,文本摘要等任务。seq2seq模型的输入可以是一个单词,字母,或图像特征序列,输出是另外一个单词,字母,或图像特征序列。seq2seq原理:seq2seq由编码器(encoder)和解码器(decoder)组成,编码器会处理输入序列中的每个元素作为输入信息,这些信息会被转化为一个向量(context向量)。

2024-01-19 04:38:38 521

原创 使用Word2vec实现文本分类

Word2Vec的主要思想是通过训练,使得具有相似语境的词在向量空间中彼此接近。例如,具有相似含义的词在词向量空间中距离较近,如 "king" 和 "queen"。>- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/AtyZUu_j2k_ScNH6e732ow) 中的学习记录博客**这个神经网络通常是一个浅层的前馈神经网络,其中隐藏层的权重矩阵就是学到的词向量。的唯一值转换为集合,然后再转换为列表,目的是为了创建一个标签的索引。

2024-01-11 05:04:57 1068

原创 调用Gensim库训练Word2Vec模型

如何使用Gensim库来训练Word2Vec模型,并利用该模型进行词语相似度计算、找出最相近的词语、找出不同的词语以及词频统计等操作。

2024-01-05 05:59:40 908 1

原创 中文文本分类-Pytorch实现

- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/AtyZUu_j2k_ScNH6e732ow) 中的学习记录博客**>- **🍖 原作者:[K同学啊 | 接辅导、项目定制](https://mtyjkh.blog.csdn.net/)**>- **🚀 文章来源:[K同学的学习圈子](https://www.yuque.com/mingtian-fkmxf/zxwb45)**本次将使用PyTorch实现中文文本分类。

2023-12-29 03:05:16 998 2

原创 Pytorch文本分类入门

AG News(AG's News Topic Classification Dataset)是一个广泛用于文本分类任务的数据集,尤其是在新闻领域。>- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/AtyZUu_j2k_ScNH6e732ow) 中的学习记录博客**>- **🚀 文章来源:[K同学的学习圈子](https://www.yuque.com/mingtian-fkmxf/zxwb45)**如果在词汇表中找不到某个单词,它将由“ ”标记表示。

2023-12-22 03:04:10 361

原创 Embeddingbag与Embedding

- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/rbOOmire8OocQ90QM78DRA) 中的学习记录博客**>- **🍖 原作者:[K同学啊 | 接辅导、项目定制](https://mtyjkh.blog.csdn.net/)**词嵌入是一种用于自然语言处理 (NLP) 的技术,用于将单词表示为数字one-hot编码就是最早期的词嵌入方法。

2023-12-15 03:07:12 1035

原创 NLP-one-hot编码

- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/rbOOmire8OocQ90QM78DRA) 中的学习记录博客**>- **🍖 原作者:[K同学啊 | 接辅导、项目定制](https://mtyjkh.blog.csdn.net/)**将文字转化为计算机能看懂的数字用1,2,3的连续数字可能让模型认为不同词语之间有连续关系,所以使用one-hot编码如 This is an apple....

2023-12-07 21:49:09 817

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除