神经网络学习记录
文章平均质量分 83
相关深度算法学习打卡
tjl521314_21
控制专业
展开
-
J8 inceptionv1
卷积神经网络大家族中有很多经典的网络,前面已经学习resnet,densenet相关网络,今天学习一种更久远的一种网络GooLenet这周主要学习了inceptionv1模型,主要学习了1x1卷积的运用,其大大降低了输入特征图的通道数,减少了网络参数与计算量,这为以后改进网络模型提供了启发。原创 2024-04-19 14:44:21 · 402 阅读 · 0 评论 -
p8 YOLOv5-C3模块实现
YOLOv5C3模块是YOLOv5目标检测算法中的一个模块。它是YOLOv5的骨干网络中的一部分,用于提取图像特征。该模块的主要作用是将输入的特征图进行卷积操作,以提取更高级别的特征。YOLOv5C3模块由Conv模块、Bottleneck模块和C3模块组成1。其中,Conv模块是卷积层,Bottleneck模块是残差块,C3模块是一种特殊的残差块,它可以在不增加计算量的情况下提高模型的性能。通过这周的学习对YOLOV5的C3模块有了简单了解,为后续学习奠定基础。原创 2024-01-04 21:39:45 · 985 阅读 · 0 评论 -
J3 Densenet
这周学习densenet,主要了解其结构设计稠密连接。DenseNet(Densely Connected Convolutional Networks)是由Gao Huang、Zhuang Liu、Laurens van der Maaten和Kilian Q. Weinberger等人于2016年提出的深度学习网络架构。DenseNet 的设计灵感主要来自于解决深度神经网络中的梯度消失问题和参数利用问题。原创 2024-03-05 19:52:41 · 808 阅读 · 0 评论 -
p7 咖啡豆识别
这周学会了自己根据论文所给的参数搭建深度学习模型,并且将模型运用于咖啡豆识别,达到了较好的效果。原创 2023-12-21 16:33:52 · 75 阅读 · 0 评论 -
t4猴痘病识别
这周对对tensorflow训练框架进行了加强学习,形式很固定,为后面学习深度网络打下来良好的基础。原创 2024-01-23 20:22:50 · 413 阅读 · 0 评论 -
J2resnet50v2
前面对resnet有了一定了解,主要关注其残差结构,其缓解了梯度消失的问题,是卷积神经网络的一大创举,这周主要学习resnet50v2,其是对resnet的改进。ResNet50V2 是对 ResNet50 的改进版本,它在保留了 ResNet 架构的基本特征的同时,进行了一些改动和优化,以提升模型性能和训练效率。原创 2024-03-20 20:40:05 · 705 阅读 · 0 评论 -
t3天气识别
这周学习了使用tensorflow加载自己的数据集,为后续学习做好了铺垫。原创 2024-01-20 10:26:10 · 1001 阅读 · 0 评论 -
J1 resnet50
前面对基础有了详细的了解,已经学会神经网络训练流程,这周对深入网络resnet进行学习。ResNet-50(Residual Network with 50 layers)是一种深度卷积神经网络,由Microsoft Research提出。它是ResNet系列的一部分,具有50个层次,因此得名ResNet-50。ResNet-50是一种非常深的神经网络,通过使用残差块(Residual Blocks)解决了深度网络训练中的梯度消失问题,使得训练更加容易。原创 2024-02-27 20:54:12 · 883 阅读 · 0 评论 -
t5 打卡
经过三周的学习已经对tensorflwo框架有了大致掌握,这周学习一种新的打标签目录结构用于运动品牌识别这周主要对前面的知识加以巩固,这个学习框架十分固定,要对其十分熟悉,为后面学习深度网络打基础。原创 2024-01-30 20:05:43 · 282 阅读 · 0 评论 -
t1手写数字识别
虽然现在pytorch占主流但是tensorflow也有许多优秀的源码值得借鉴,故打算学习一下tensorflow。打卡t1实现手写数字识别。通过这次简单的实验对tensorflow有了简单的了解,熟悉了其训练流程并且比较了与pytorch的差异。原创 2024-01-12 16:39:55 · 852 阅读 · 0 评论 -
N1 one-hot编码
One-hot编码(one-hot encoding)是一种常见的数据预处理方法,用于将分类数据转换为可以输入机器学习算法的格式。具体来说,它将分类数据转换为一个二进制向量,其中只有一个位置的值为1,其余位置的值为0。这种编码方式特别适用于处理离散的分类变量,避免了分类变量之间可能出现的顺序关系误解。one-hot编码是一种简单而有效的分类变量处理方法,广泛应用于机器学习和数据处理领域。它能有效地避免序列误解,使分类变量能够以数值形式输入到各种算法中。原创 2024-05-29 19:58:15 · 749 阅读 · 0 评论 -
1.numpy总结(1)
解除了很久的pytorch,这里对pytorch及其相关知识做个总结。首先从基本的numpy库入手。提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。原创 2024-03-13 16:48:43 · 553 阅读 · 0 评论 -
p6好莱坞明星识别
这周对VGG16进行了初步学习,学会了调用官方的VGG模型,并加载预备训练数据,对好莱坞明星识别,结果调到了40%,调参这一块还有待加强。原创 2023-12-14 15:45:38 · 69 阅读 · 0 评论 -
DenseNet实现乳腺癌识别
这周继续巩固了前面的知识点,对Densenet网络的实现和应用有了更深的了解,但是目前也只是学会大致调用原来的模型,自己修改还存在一定困难,后面尝试争取自己修改模型,深入学习。原创 2024-04-03 20:28:53 · 237 阅读 · 0 评论 -
J9inceptionv3
Inception v3是谷歌研究团队提出的深度卷积神经网络架构,通过引入多尺度的Inception模块和辅助分类器等技术,有效解决了深度网络训练中的梯度消失和模型参数过多的问题。该网络利用不同大小的卷积核并行处理图像信息,结合Batch Normalization和全局平均池化等优化策略,以较少的参数实现了优异的图像分类和识别性能,成为了深度学习图像处理领域的重要里程碑之一。下面分别进行介绍。原创 2024-04-29 20:03:22 · 329 阅读 · 0 评论 -
p10 车牌号的识别
"""nn.Conv2d()函数:第一个参数(in_channels)是输入的channel数量第二个参数(out_channels)是输出的channel数量第三个参数(kernel_size)是卷积核大小第四个参数(stride)是步长,默认为1第五个参数(padding)是填充大小,默认为0"""# 最终reshapereturn x# 定义Reshape层这段代码定义了一个名为 Network_bn 的神经网络模型类,其中包含了卷积层、批归一化层和全连接层。原创 2024-04-10 20:40:33 · 1031 阅读 · 0 评论 -
ResNeXt
前面已经学习了resnet家族已经inception卷积网络,还简单了解了SE注意力机制,今天学习resnet和inception的组合ResNeXt。ResNeXt是一种深度神经网络结构,它是ResNet(残差网络)和Inception(启发式卷积神经网络)的结合体。ResNeXt的主要思想是在神经网络中引入一种称为“分组卷积”的操作,从而实现更好的特征提取。相比于传统的卷积操作,分组卷积可以更好地利用GPU的并行计算能力,从而提高模型的运行速度和效率。原创 2024-05-14 19:48:55 · 891 阅读 · 0 评论 -
p2彩色图片识别
这周主要将卷积神经网络的设计细节和相关公式熟悉了一下,这些东西很基础但是很重要,由于前面只关注代码而忽略了数学推导从而导致在后面的任务受阻,从这次实验结果可以看出对于浅层神经网络其对于大量数据容易出现欠拟合,模型泛化能力远不及深度网络。原创 2024-03-12 20:26:29 · 702 阅读 · 0 评论 -
T8 猫狗识别
前面已经对tensorflow训练框架已经有了熟悉的了解,这周主要使用VGG16实现猫狗识别,同时学习model.train_on_batch方法。VGG16总共有16层,13个卷积层和3个全连接层,第一次经过64个卷积核的两次卷积后,采用一次池化,第二次经过两次128个卷积核卷积后,再采用池化,再重复两次三个512个卷积核卷积后,再池化,最后经过三次全连接。原创 2024-02-19 21:21:44 · 331 阅读 · 0 评论 -
Densenet+SE
这周开始学习关于经典模型的改进如加注意力机制,这周学习Densenet加通道注意力即SE注意力机制。##SE注意力机制简介SE(Squeeze-and-Excitation)注意力机制是一种用于增强卷积神经网络(CNN)性能的注意力机制,特别适用于图像分类任务。该机制由Jie Hu等人于2018年提出,旨在通过动态调整特征图中每个通道的权重,从而增强模型对重要特征的感知能力。SE注意力机制的基本思想是利用全局信息来动态调整特征图中各个通道的重要性。原创 2024-05-08 20:58:12 · 1248 阅读 · 0 评论 -
第二周天气识别
这周学习天气识别项目,学会加载本地数据集进行训练,学会把数据集划分为·数据集和验证集,这是本周的学习重点。通过这周学习学会了加载本地数据,对数据集的划分,并进行模型训练。原创 2023-11-16 15:33:21 · 127 阅读 · 0 评论 -
第四周运动品牌识别
由上述结果看以看出,采用动态学习调整率对训练精度会产生影响,比没有采用动态学习调整率模型要高出4%个百分点左右。原创 2023-12-08 08:30:00 · 43 阅读 · 0 评论 -
第三周深度学习实战猴痘病识别
上周学会了加载本地数据并对数据集进行划分,这周主要学习运用模型进行预测并保存模型这周主要在上周的基础上学会了如何加载和保存模型。原创 2023-11-19 13:45:38 · 53 阅读 · 0 评论 -
手写数字识别
接触深度学习不久,学习的东西比较杂,这段时间一直在帮老师干杂话,水平也没有得到实际性的提高,所以参加了CSDN,K同学啊的深度学习实战,感觉这个栏目质量还不错,一步一个脚印走吧。第一周先热个身,运用leNet实现手写数字识别。导入库from tqdm import * # tqdm用于显示进度条并评估任务时间开销import sys本周主要通过对手写数字识别复习了深度学习基本框架和函数,下周尝试使用非官方数据集进行学习。路漫漫其修远兮,吾将上下而求索!原创 2023-11-10 14:24:26 · 106 阅读 · 0 评论