自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(538)
  • 资源 (2)
  • 收藏
  • 关注

原创 小团体~抱团学习了!

教案与我的《深度学习100例》一样,都包含可以直接运行的源码与数据。一个深度学习领域博主,CSDN的博客专家、有八万+粉丝,和鲸特邀导师,《深度学习100例》的作者,一个收到中科院等诸多名校、名企offer的自由摄影爱好者。:希望为大家提供一个好的学习环境,大家共同努力形成一个互帮互助的良性循环,群里大家可以相互讨论交流学习过程中的点滴,希望训练营存在对大家是积极的。"365天深度学习训练营"向大家进行了承诺,与此相伴的,对大家的要求也将更高,这将明显体现在各位每周上交的作业上面。

2024-01-17 17:58:16 1077 1

原创 YOLO算法改进指南【中阶改进篇】:3.添加SA-Net注意力机制

当前的 CNN 中的 attention 机制主要包括:channel attention 和 spatial attention,当前一些方法(GCNet 、CBAM 等)通常将二者集成,容易产生 converging difficulty 和 heavy computation burden 的问题。尽管 ECANet 和 SGE 提出了一些优化方案,但没有充分利用 channel 和 spatial 之间的关系。

2023-04-26 10:22:57 1299 12

原创 Pytorch入门实战 | 第P3周:天气识别

☕难度:新手入门⭐。

2022-10-03 14:07:02 1339 8

原创 深度学习100例-循环神经网络(LSTM)实现股票预测 | 第10天

文章目录一、前言二、LSTM的是什么三、准备工作1.设置GPU2.设置相关参数3.加载数据四、数据预处理1.归一化2.时间戳函数五、构建模型六、激活模型七、训练模型八、结果可视化1.绘制loss图2.预测3.评估一、前言今天是第10天,我们将使用LSTM完成股票开盘价格的预测,最后的R2可达到0.74,相对传统的RNN的0.72提高了两个百分点。我的环境:语言环境:Python3.6.5编译器:jupyter notebook深度学习环境:TensorFlow2.4.1来自专栏:【深度学习

2022-05-12 09:40:22 85500 109

原创 深度学习100例-卷积神经网络(CNN)3D医疗影像识别 | 第23天

大家好,我是「K同学啊 」!好像有一段时间没有更新了,这段事情真的太多了,自己也有一点点小偷懒,但是我还在坚持哈,等开学了更新频率可能就会稳定下来。唠嗑结束,进入正题,前段时间帮别人做了一个3D分类的活,想着怎么也得整理出一篇博客给大家吧,于是乎就有了这篇文章。这篇文章讲解的项目相对早期的项目有如下改进:1.设置的动态学习率2.加入的早停策略3.模型的保存时间更加“智能”4.在数据加载这块也有明显的优化???? 我的环境:语言环境:Python3.6.5编译器:jupyter not

2022-02-20 20:09:43 6174 19

原创 这是要被奖金给砸晕啊......

钱真多

2023-10-09 16:42:00 626

原创 YOLOv5 如何关闭wandb

【代码】YOLOv5 如何关闭wandb。

2023-09-11 11:07:16 378

原创 【GAN小白入门】Semi-Supervised GAN 理论与实战

创建一个标签嵌入层,用于将条件标签映射到潜在空间# 初始化图像尺寸,用于上采样之前# 第一个全连接层,将随机噪声映射到合适的维度# 生成器的卷积块nn.Tanh(),return img"""返回每个鉴别器块的层"""if bn:# 鉴别器的卷积块# 下采样图像的高度和宽度# 输出层self.adv_layer = nn.Sequential(nn.Linear(128 * ds_size ** 2, 1), nn.Sigmoid()) # 用于鉴别真假的输出层。

2023-09-05 11:21:45 888

原创 9月份抱团学习❗开启报名通道

9月份抱团学习,我们都在你不来吗?

2023-08-31 17:09:05 541

原创 yolov5中的best.pt是如何确定的

好理解,就是最后一个epoch的输出,但是best是啥意思?中的fitness函数,可以看到是将。我们来一行行看train.py源码。按照1:9的比重确定最佳模型的。

2023-08-04 11:14:58 1309

原创 GAN入门|第四篇:生成手势图像|可控制生成

🏡 我的环境:👉考虑到大家算力有限,这里为大家提供我已经训练好生成器模型,大家可自行下载🚀 深度学习新人必看:🚀 往期精彩内容:条件生成对抗网络(CGAN)是在生成对抗网络(GAN)的基础上进行了一些改进。对于原始GAN的生成器而言,其生成的图像数据是随机不可预测的,因此我们无法控制网络的输出,在实际操作中的可控性不强。针对上述原始GAN无法生成具有特定属性的图像数据的问题,Mehdi Mirza等人在2014年提出了条件生成对抗网络,通过给原始生成对抗网络中的生成器G和判别器D增加额外的条件,例

2023-07-30 13:49:07 764

原创 深度学习100例 | 第31天-卷积神经网络(DenseNet)识别生活物品

🚀。

2023-07-28 09:51:28 2369 3

原创 YOLO算法改进指南【中阶改进篇】:9.添加S2-MLPv2注意力机制

相比于现有的 MLP 的结构,S2-MLP 的一个重要优势是仅仅使用通道方向的全连接(1×11 \times 11×1卷积)是可以作为 Backbone 的,期待该团队后续的进展。S2-MLPv2 其实是通过 Spatial-shift 和 Split Attention 代替原有的N×NN \times NN×N卷积,本质上并没有延续 MLP-Mixer 架构中长距离依赖的思想。S2-MLPv2 中也并没有长距离依赖的使用。

2023-07-27 21:40:24 491

原创 labels.unsqueeze(1) 维度增加

例如,生成器可能需要了解每个生成的图像应该对应哪个类别,而判别器可能需要将图像和标签组合起来来判断真实性。因此,在GAN的训练过程中,可能需要将标签的形状从一维张量变为二维张量,并在特定维度上增加维度。这样做的目的是与生成器或判别器的输入数据形状相匹配,从而能够正确地传递标签信息。是 PyTorch 中的一个方法,用于在给定维度上增加一个维度。,它将在维度1的位置(索引位置从0开始)上增加一个新的维度。结果是一个二维张量,其中有N行和1列,每一行表示一个样本的标签。是一个一维张量,表示每个样本对应的标签。

2023-07-21 14:05:59 269

原创 小白入门深度学习 | 6-6:Inception v3 算法原理

Inception v3由谷歌研究员Christian Szegedy等人在2015年的论文《Rethinking the Inception Architecture for Computer Vision》中提出。Inception v3是Inception网络系列的第三个版本,它在ImageNet图像识别竞赛中取得了优异成绩,尤其是在大规模图像识别任务中表现出色。然而,由于其较大的网络结构和计算复杂度,Inception v3在实际应用中可能需要较高的硬件要求。此处如果 n=3,则与上一张图像一致。

2023-07-19 09:19:09 620

原创 小白入门深度学习 | 3-2:激活函数activation

生物神经网络启发了人工神经网络(ANN)的发展。但是,人工神经网络并非大脑运作的近似表示。不过在我们了解为什么在人工神经网络中使用激活函数之前,先了解生物神经网络与激活函数的相关性是很有用处的。典型神经元的物理结构包括细胞体、向其他神经元发送信号的轴突和接收其他神经元发送的信号或信息的树突。上图中,红色圆圈代表两个神经元交流的区域。神经元通过树突接收来自其他神经元的信号。树突的权重叫作突触权值,将和接收的信号相乘。来自树突的信号在细胞体内不断累积,如果信号强度超过特定阈值,则神经元向轴突传递信息。

2023-07-18 17:58:59 368

原创 小白入门深度学习 | 6-5:Inception-v1(2014年)详解

GoogLeNet首次出现在2014年ILSVRC 比赛中获得冠军。这次的版本通常称其为Inception V1。Inception V1有22层深,参数量为5M。同一时期的VGGNet性能和Inception V1差不多,但是参数量也是远大于Inception V1。Inception Module是Inception V1的核心组成单元,,如下图a。按照这样的结构来增加网络的深度,虽然可以提升性能,但是还面临计算量大(参数多)的问题。为改善这种现象,借鉴。

2023-07-18 09:45:25 637

原创 残差网络 与 深度残差网络 关系详解

深度残差网络(Deep Residual Network): 深度残差网络是指由多个残差块组成的深度神经网络。不同点:"深度残差网络"这个术语通常用于指代ResNet结构的特定实现,特别是指用于解决计算机视觉问题的网络,而ResNet一词则更广泛地指代使用残差块的任何网络。总结:深度残差网络是ResNet的一个特定实现,通过引入残差块并使用跳跃连接,允许构建更深的神经网络。残差网络(ResNet)和深度残差网络(Deep Residual Network)是两个与深度学习相关的概念,它们有些异同之处。

2023-07-18 09:34:16 392

原创 小白入门深度学习 | 6-4:ResNet-50(2015年)详解

残差网络ResNet在2015年由何恺明等提出,因为它简单与实用并存,随后很多研究都是建立在ResNet-50或者ResNet-101基础上完成。ResNet主要解决深度卷积网络在深度加深时候的“退化”问题。在一般的卷积神经网络中,增大网络深度后带来的第一个问题就是梯度消失、爆炸,这个问题Szegedy提出BN层后被顺利解决。BN层能对各层的输出做归一化,这样梯度在反向层层传递后仍能保持大小稳定,不会出现过小或过大的情况。

2023-07-18 09:22:26 977

原创 TextCNN 实现股票时间序列预测(TensorFlow2版)

本专栏旨在通过实战案例帮助深度学习初学者通过实战案例。

2023-07-17 17:25:36 834

原创 BiLSTM(双向LSTM)实现股票时间序列预测(TensorFlow2版)

BiLSTM(双向长短期记忆网络)是一种深度学习模型,属于循环神经网络(Recurrent Neural Network,RNN)的一种变体。BiLSTM 在处理序列数据时能够同时考虑上下文信息,因此在自然语言处理(Natural Language Processing,NLP)任务中得到广泛应用。

2023-07-17 10:49:16 1507

原创 YOLO算法改进指南:8.添加SimAM注意力机制 |无参数注意力模块

本文提出一种概念简单且非常有效的注意力模块。不同于现有的通道/空域注意力模块,该模块无需额外参数为特征图推导出3D注意力权值。具体来说,本文基于著名的神经科学理论提出优化能量函数以挖掘神经元的重要性。本文进一步针对该能量函数推导出一种快速解析解并表明:该解析解仅需不超过10行代码即可实现。该模块的另一个优势在于:大部分操作均基于所定义的能量函数选择,避免了过多的结构调整。最后,本文在不同的任务上对所提注意力模块的有效性、灵活性进行验证。

2023-07-16 15:31:05 1774

原创 GAN入门|第二篇:人脸图像生成(DCGAN)

自定义权重初始化函数,作用于netG和netD def weights_init(m) : # 获取当前层的类名 classname = m . __class__ . __name__ # 如果类名中包含'Conv',即当前层是卷积层 if classname . find('Conv')!

2023-07-16 10:03:54 657

原创 YOLOv5解析 | 第五篇:yolo.py文件解读

这个文件是YOLOv5网络模型的搭建文件,如果你想改进YOLOv5,那么这么文件是你必须进行修改的文件之一。文件内容看起来多,其实真正有用的代码不多的,重点理解好我文中提到的一个函数两个类即可。注:由于YOLOv5版本众多,同一个文件对于细节处你可能会看到不同的版本,不用担心这都是正常的,注意把握好整体架构即可。

2023-07-12 11:33:25 463 1

原创 YOLOv5解析 | 第四篇:common.py文件详解

该文件是实现YOLO算法中各个模块的地方,如果我们需要修改某一模块(例如C3),那么就需要修改这个文件中对应模块的的定义。这里我先围绕代码,带大家过一遍各个模块的定义,详细介绍我将在后续的教案中逐步展开。由于YOLOv5版本问题,同一个模块你可能会看到不同的版本,这都是正常的,以官网为主即可。

2023-07-12 11:31:10 260

原创 YOLOv5解析 | 第三篇:yolov5s.yaml文件详解

YOLOv5配置了4种不同大小的网络模型,分别是YOLOv5sYOLOv5mYOLOv5lYOLOv5x,其中YOLOv5s是网络深度和宽度最小但检测速度最快的模型,其他3种模型都是在YOLOv5s的基础上不断加深、加宽网络使得网络规模扩大,在增强模型检测性能的同时增加了计算资源和速度消耗。出于对检测精度、模型大小、检测速度的综合考量,本文选择YOLOv5s作为研究对象进行介绍。文件是YOLOv5s网络结构的定义文件,如果你想改进算法的网络结构,需要先修改该文件中的相关参数,然后再修改与中的相关代码。

2023-07-12 11:27:32 835

原创 TensorFlow入门实战|第R1周:RNN-心脏病预测

【代码】TensorFlow入门实战|第R1周:RNN-心脏病预测。

2023-07-10 17:48:05 1082 1

原创 @tf.function 是什么意思,作用是什么

相比于动态图,静态图可以进行更多的优化,例如自动并行化、自动求导等,从而提高计算效率。装饰器可以将函数转换为 TensorFlow 图,提高函数的执行效率并支持自动优化和自动求导等功能,适用于大部分的 TensorFlow 计算任务。:装饰器可以将函数中的部分张量运算转换为 TensorFlow 图,这样可以将大部分计算转移到 GPU 上进行加速,提高计算性能。:通过将函数转换为 TensorFlow 图,可以避免重复的计算和 Python 解释器的开销,从而提高函数的执行效率。

2023-07-08 11:03:40 825

原创 YOLO算法改进指南【中阶改进篇】:7. 添加SK-Net注意力机制

受皮质神经元根据不同的刺激可动态调节其自身的receptive field的启发,提出了一种动态选择机制,根据输入信息的多个尺度自适应地调整其感受野大小。设计了一种称为选择核(SK)单元的结构块,利用softmax attention 对不同核大小的多个分支进行融合。

2023-07-06 13:18:39 346

原创 新手入门深度学习 | 6-3:VGG-16(2015年)详解

VGG网络根据不同的层数和不同的卷积核的参数配置,可分为多个类型的卷积模型, 如下表所示。VGG-16有五个max-pooling层,也就是VGG-16有五个阶段的特征提取,每个阶段的卷积都是从64个参数开始,到512个参数结束,每个阶段都增加一倍,直到达到512个参数为止,整个模型的计算过程如下表所示。的卷积核具有更强的非线性,使得特征图具有更强的特征性,避免过拟合。的卷积核进行卷积,卷积的步长都是1,这种在一个卷积层用两个。的卷积核做卷积,可以使得整个算法参数量下降,同时 采用2个。

2023-07-05 14:01:24 703

原创 nn.ZeroPad2d()层详解

在这个示例中,输出张量的尺寸将变为(1, 3, 36, 36),在输入张量的周围增加了2个零值填充。在PyTorch中,"zeropad"层实际上是指的是"ZeroPad2d"模块,它是PyTorch中的一个二维零填充层。它主要用于在二维输入张量的周围添加零值像素,从而改变输入张量的尺寸。在上述示例中,我们首先创建了一个大小为(1, 3, 32, 32)的输入张量,表示一个批次大小为1的RGB图像,高度和宽度均为32。层,您可以方便地控制输入张量的尺寸,并在卷积神经网络中实现各种形状的操作。

2023-07-05 09:42:17 803

原创 新手入门深度学习 | 6-2:AlexNet(2012)详解

AlexNet是更深的LeNet,采用ReLu激活函数和最大池化方法,由输入层、卷积层、池化层、全连接层、输出层构成,包含六千万个参数和65000个神经元,计算层有3个卷积层,3个全连接层,最终输出层为1000通道的Softmax。AlexNet利用了两块GPU进行计算,大大提高了运算效率,并且在ILSVRC-2012竞赛中获得了top-5测试的15.3% error rate,获得第二名的方法error rate为26.2%,相比具有很大差距,在学术界产生了巨大的影响力。对神经网络的学习造成严重影响。

2023-07-04 18:32:35 612

原创 深度学习如何入门?

我们通过算术学习、MNIST手写数字识别了解了什么是深度学习,也用TensorFlow2实现了MNIST手写数字识别,从整体上了解了一个深度学习程序是什么样子的,应该有哪些步骤📖《深度学习100例》🔥365天深度学习训练营🔥。

2023-07-03 13:37:12 1322 1

原创 深度学习100例 | 第37天:表情识别(K同学啊原创出品)

🏡🥂建议你学习本文之前先看看下面这篇入门文章,以便你可以更好的理解本文:🍨强烈建议大家使用编译器打开源码,你接下来的操作将会非常便捷的!深度学习小白缺乏实战经验。

2023-07-02 08:55:27 315 2

原创 新手入门深度学习 | 6-1:LeNet-5(1998年)详解

LeNet-5模型由Yann LeCun 教授于1998年提出,是一种卷积神经网络基础模型。该模型共有7层结构,负责卷积、池化、整合信息。

2023-06-29 12:52:02 342

原创 YOLO算法改进指南【中阶改进篇】:6.添加NAM-Net注意力机制

识别不太显着的特征是模型压缩的关键。然而,它尚未在革命性的注意力机制中进行研究。在这项工作中,我们提出了一种新颖的基于归一化的注意力模块(NAM),它抑制了不太显着的权重。它将权重稀疏惩罚应用于注意力模块,从而使它们在保持相似性能的同时具有更高的计算效率。注意力机制是近年来的热门研究兴趣之一。它帮助深度神经网络抑制不太显着的像素或通道。许多先前的研究侧重于通过注意力操作来捕捉显着特征。这些方法成功地利用了来自不同维度特征的互信息。然而,他们没有考虑权重的影响因素,这能够进一步抑制不重要的通道或像素。

2023-06-29 08:39:23 206

原创 YOLO算法改进指南【中阶改进篇】:5.添加GAM-Net注意力机制

卷积神经网络(CNNs)在计算机视觉领域的许多任务和应用中得到了广泛的应用。研究人员发现,CNN在提取深层视觉表征方面表现良好。随着CNNs相关技术的改进,ImageNet数据集上的图像分类,在过去九年中,准确率从63%提高到90%。这一成就还归功于ImageNet数据集的复杂性,这为相关研究提供了难得的机会。鉴于其涵盖的真实场景的多样性和广泛性,它给传统的表象分类基准、表征学习、迁移学习等研究带来了很大的益处,特别是对注意机制的研究也带来了挑战。

2023-06-23 17:06:13 341

原创 TensorFlow入门实战|第T11周:优化器对比实验 - 明星识别

本次主要是探究不同优化器、以及不同参数配置对模型的影响,请结合训练营内部的文章【30分钟读懂优化器】进行学习、研究。在论文当中我们也可以进行优化器的比对,以增加论文工作量。

2023-06-22 09:27:13 255

原创 搞钱!如何拿下奖金534万的全国人工智能大赛?

嗨咯,大家好,我是K同学啊!介于最近训练营中经常有同学问我,有哪些比较好的知识变现渠道,这几天整理出了一个个人认为还不错的关于深度学习方面的大赛(就奖金比较多而已)分享给大家。

2023-06-20 16:11:08 376

原创 TensorFlow入门实战|第T10周:数据增强

import random # 这是大家可以自由发挥的一个地方 def aug_img(image) : seed =(random . randint(0 , 9) , 0) # 随机改变图像对比度 stateless_random_brightness = tf . image . stateless_random_contrast(image , lower = 0.1 , upper = 1.0 , seed = seed) return stateless_random_brightness。

2023-06-11 13:09:44 963 1

时序数据-LSTM模型-实现用电量预测.rar

时序数据-LSTM模型-实现用电量预测,里面包含数据和代码,代码讲解见:https://mtyjkh.blog.csdn.net/article/details/115612319

2021-04-13

垃圾短信数据集(中文).rar

包含1万多条短信,垃圾短信标记为1,正常短信标记为0。

2020-08-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除