深度学习
文章平均质量分 89
全是头发的羊羊羊
学术裁缝在线缝缝补补
展开
-
卷积神经网络(LeNet5实现对Fashion_MNIST分类
本次实验旨在探索卷积神经网络在Fashion_MNIST数据集上的应用,以经典的LeNet-5模型为基础进行分类任务。在实验过程中,我逐步优化了模型架构,并对比了不同模型的性能表现,以达到更好的分类准确率。首先,Fashion_MNIST数据集包含10个类别的衣物和配饰图像,每个类别包含7000张28x28像素的灰度图像。我采用了LeNet-5模型作为初始模型架构,该模型包含了卷积层、池化层和全连接层,经典简洁。随后,在训练过程中我注意到模型的性能不尽如人意,于是尝试了调整参数和模型架构。原创 2024-04-14 12:37:30 · 986 阅读 · 0 评论 -
基于CNN神经网络的手写字符识别实验报告
在MNIST手写字符识别任务中,CNN(例如LeNet-5)模型表现出了较好的性能,能够有效地提取图像特征,获得较高的准确率。参数调优对模型性能影响显著,如学习率、批处理大小、优化算法和激活函数等。具体调整这些参数能够显著地改变模型的收敛速度和准确率。不同的优化算法和激活函数对模型性能有重要影响。自适应学习率算法(如Adam、RMSprop)和ReLU激活函数通常能在训练效率和性能上取得较好的平衡。手写字符识别问题在现代深度学习中仍然是一个重要的研究领域,不同的模型和方法在实际应用中各有优劣。原创 2023-12-30 17:01:36 · 1697 阅读 · 1 评论 -
Transformer模型中的Attention算法
参考【经典精读】万字长文解读Transformer模型和Attention机制 - 知乎 (zhihu.com)图解Transformer_transformer模型训练准确率曲线图-CSDN博客The Illustrated Transformer – Jay Alammar – 一次可视化一个概念的机器学习。Transformer是《Attention is all you need》论文里提出来的新的框架,其就是一个升级版的seq2seq,也是由一个encoder和一个decoder组成的。原创 2023-12-29 12:44:17 · 960 阅读 · 0 评论 -
读论文之StoryGAN
故事可视化。由一个深度上下文编码器组成,该编码器动态跟踪故事流,以及故事和图像级别的两个鉴别器,以提高图像质量和生成序列的一致性。原创 2023-12-25 23:38:28 · 952 阅读 · 0 评论 -
生成式对抗网络(GAN
GAN包含有两个模型,一个是生成模型,一个是判别模型。生成模型的任务是生成看起来自然真实的、和原始数据相似的实例。判别模型的任务是判断给定的实例看起来是自然真实的还是人为伪造的(真实实例来源于数据集,伪造实例来源于生成模型)。·结合整体模型图示,再以生成图片作为例子具体说明下面。我们有两个网络,G(Generator)和D(Discriminator)。·Generator是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。原创 2023-12-12 15:55:06 · 1094 阅读 · 0 评论