- 博客(9)
- 收藏
- 关注
原创 FewFaceNet: A Lightweight Few-Shot Learning-based Incremental Face Authentication for Edge Cameras
骨干模型的体系结构:模型的核心特征是其树状并行结构,包括三个分支。每个分支都具有不同的架构,分别受到不同激发的影响。每个分支都负责不同层次的特征提取。第一个分支采用了简单的卷积层和 ReLU 激活单元,第二个分支受到了 ResNet 架构的启发,通过轻量级残差块提取特征,而第三个分支则采用了 DenseNet 架构,通过密集连接实现特征提取。本文介绍了一种名为FewFaceNet的新型人脸认证技术,旨在解决现有方法在资源受限环境下的局限性。这种共享参数的设计有助于模型在有限资源条件下实现更好的性能。
2024-04-26 14:39:11 175 1
原创 Tree Structure-Aware Few-Shot Image Classifciation via Hierarchical Aggregation
Tree Structure-Aware Few-Shot Image Classifciation via Hierarchical Aggregation阅读笔记
2024-04-26 11:42:59 766 1
原创 few-shot调研
对数变换辅助高斯采样的少样本学习,2023发布在iccv领域:图像分类数据集:1、miniImageNet,它有100个不同的类,每个类600张图像,每个大小为84 × 84 × 32、CUB,共有11,788幅图像,每幅大小为84 × 84 × 3,包含200种不同种类的鸟类。总结:该论文提出了一种新的高斯转换方法,可以将实验数据转换为更接近高斯分布的数据,并将其应用于小样本图像分类中。实验结果表明,该方法在性能上取得了显著提升,同时减少了所需的数据量。
2024-04-19 13:42:17 614 1
原创 netron 神经网络可视化
netron并不支持pytorch通过torch.save方法导出的模型文件,因此在pytorch保存模型的时候,需要将其导出为onnx格式的模型文件,可以利用torch.onnx模块实现这一目标。整体的流程分为两步,第一步,pytorch导出onnx格式的模型文件。第二步,netron载入模型文件,进行可视化。接下来按照这两步进行实践。
2023-10-25 16:22:57 161 1
原创 动手学深度学习—现代卷积神经网络
原始VGG网络有5个卷积块,其中前两个块各有一个卷积层,后三个块各包含两个卷积层。需要注意的是,第五模块的后面紧跟输出层,该模块同NiN一样使用全局平均汇聚层,将每个通道的高和宽变成1。ResNet 的前两层跟之前介绍的 GoogLeNet 中的一样: 在输出通道数为 64、步幅为 2 的 7×7 卷积层后,接步幅为 2 的 3×3 的最大汇聚层。AlexNet和LeNet的架构非常相似,注意,本书在这里提供的是一个稍微精简版本的AlexNet,去除了当年需要两个小型GPU同时运算的设计特点。
2023-10-19 23:59:24 97 1
原创 动手学深度学习——卷积神经网络
平移不变性(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。局部性(locality):神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终,可以聚合这些局部特征,以在整个图像级别进行预测。图像的平移不变性使我们以相同的方式处理局部图像,而不在乎它的位置。
2023-10-19 21:27:16 113
原创 动手学深度学习——深度学习计算
每个块需要具有的功能:将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。存储和访问前向传播计算所需的参数。根据需要初始化模型参数。下列代码编写了一个块,包含一个多层感知机,其具有256个隐藏单元的隐藏层和一个10维输出层# 用模型参数声明层。这里,我们声明两个全连接的层# 调用MLP的父类Module的构造函数来执行必要的初始化。
2023-10-13 01:48:15 45
原创 动手学深度学习——线性神经网络
我们必须定义模型,将模型的输入和参数同模型的输出关联起来。线性回归模型:y=wx+b#定义模型"""线性回归模型"""因为需要计算损失函数的梯度,所以我们应该先定义损失函数。#定义损失函数"""均方损失"""使用小批量随机梯度下降#定义优化算法"""小批量随机梯度下降"""with torch.no_grad(): #在该模块下,所有计算得出的tensor的requires_grad都自动设置为False。# param.grad是损失函数关于param的梯度。
2023-10-12 21:57:00 107
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人