- 博客(6)
- 资源 (8)
- 问答 (1)
- 收藏
- 关注
原创 OD-数据预处理-对fsod-test和fsod-train数据集进行统计
import jsonwith open('fsod_test.json') as fd: file=json.load(fd)# print(file)print(type(file))keys=file.keys()for k in keys: print(k) print(type(file[k]))supcat=[]id=[]name=[]slow=[]cats=file['categories']for item in cats: supc
2020-12-17 11:37:23 380
原创 元学习
元学习是要学会任务中的特征表示,从而在新任务上泛化。元学习主要解决的是学会如何学习的问题。元学习主要包括:zero-shot/One-shot/Few-shot learning。元学习的主要方法包括:基于memory,基于预测梯度,利用attention注意力机制,借鉴LSTM,面向RL的meta learning方法,利用WaveNet方法,预测Loss的方法等。基于记忆Memory的方法基本思路:如果需要通过以往的经验来学习,是不是可以通过在神经网络上添加Memory来实现。基于预测
2020-12-13 11:33:12 763 1
原创 知识蒸馏
知识蒸馏知识蒸馏可以将一个网络的知识转移到另一个网络,这两个网络可以是同构的或者异构的。可以用于将大网络的知识转移到一个小网络中并且保留接近于大网络的性能;可以将多个网络学习到的知识转移到一个网络中,使得单个网络的性能接近emsemble结果。知识蒸馏的分类优化目标驱动特征匹配...
2020-12-13 10:33:36 241
原创 CSAR——Channel-wise and Spatial Feature Modulation Network for Single Image Super-Resolution
####CSAR(Channel-wise and Spatial Attention Residual )包括通道(变成c*1*1)和空间维度(1*h*w)注意力
2020-12-12 21:28:03 771 2
原创 SENet
卷积核是卷积神经网络的核心,通常被看作是在局部感受野上,对空间尺度信息和通道尺度信息进行了信息融合。卷积神经网络通常包括一系列的卷积层,非线性层,下采样层。很多工作提出来从空间维度层面来提升性能,比如Inception结构中引入了多尺度信息,聚合多种不同感受野上的特征来获得性能增益。SENet是基于能否从通道层面(考虑特征通道之间的关系)的考虑提出的,动机是希望显式的建模特征通道之间的相互依赖关系,通过学习自动的获取到每个特征通道之间的重要程度,然后依据这个重要程度去提升有用的特征并抑制对当前任务作用不
2020-12-12 21:13:45 169
原创 CV中的注意力机制_1
注意力机制的基本思想就是让网络学会关注重要的信息而忽略无关的信息。1. 注意力机制的分类(1)软注意力:软注意力更加关注区域或者通道,可微,可以通过网络的前向传播以及后向传播学习得到。(2)强注意力:强注意力更加关注点,图像中的每一个点都可以延伸出注意力,强注意力是不可微的注意力,训练过程往往通过增强学习完成。2. 软注意力的使用软注意力一般通过相关特征学习权重分布,再利用学习得到的权重施加在特征上进一步提取相关知识。加权可以在原图上,通道(channel尺度),空间,时空上。3. 注意力相关
2020-12-10 20:50:37 334 1
C#考试简答题总结 (3).docx
2019-10-23
C#考试简答题总结 (2).docx
2019-10-23
C#考试简答题总结 (1).docx
2019-10-23
C#实验报告七.docx
2019-10-23
C#实验报告五.docx
2019-10-23
C#实验报告四.docx
2019-10-23
根据年老照片还原年轻容貌的算法
2017-05-13
TA创建的收藏夹 TA关注的收藏夹
TA关注的人