科研记录
文章平均质量分 86
IUIUStar
星星在发光~
展开
-
Momentum Contrast for Unsupervised Visual Representation Learning
今日学习内容来自B站沐神对MOCO这篇论文的逐句讲解,简要做一下记录。本文方法简:MOCO有代码,且官方发布的代码形式十分简洁明了,推荐。引入:对比学习原创 2022-04-05 21:51:12 · 2938 阅读 · 0 评论 -
Exploring Simple Siamese Representation Learning
Exploring Simple Siamese Representation Learning作者:Xinlei Chen, Kaiming He 2020年1、摘要孪生网络常用在计算增广图像之间的相似性。但存在“坍塌”问题。我们经常使用这三种方式解决:{负样本对,批量,动量编码器}。本文提出了一个关于停止梯度含义的假设,对防止“坍塌”很有效。2、主要思想一般过程:假设输入图像x,对它进行两次随机增强得到x1,x2。分别送入编码器f(.)(以Resnet为例),其中一个分支接入MLP层(用h原创 2022-04-02 17:48:12 · 1077 阅读 · 0 评论 -
Image Quality Assessment using Contrastive Learning
备注:2021年XXX上的文章,有代码1、摘要:目前存在的方法都有哪些问题:我们的方法针对.....的问题,提出了...的方法。以一种自监督的方式获得图像质量表示,最大的特点就是不需要lable。使用失真类型和失真程度作为辅助任务来从未标记的数据集中学习特征。这个数据集中既有合成失真,也有真实失真。因为从NRIQA的角度来看,我们希望获得一个对合成和真实失真都有效的模型,所以我们训练一个CNN模型来解决辅助任务。方法简称CONTRIOUE。同时在评估期间,CNN权重被冻结并且线性回归映射原创 2022-03-27 19:02:07 · 956 阅读 · 2 评论 -
A Simple Framework for Contrastive Learning of Visual Representations
A Simple Framework for Contrastive Learning of Visual Representations2020年,已开源 SimCLR参考文章点击这里参考文章主要思想:1、对比学习是什么?对比学习就是让机器去学会区分相似和不相似的事物。相似与不相似图像的定义:假设送入网络的一批图像有2个AB,对一个图像A进行数据增强方式得到A1,A2,对B进行数据增强得到B1,B2。则A1A2之间是相似的,B1B2之间是相似的,我们把它就叫做正样本;A1B1,A1B2以及A原创 2022-03-31 14:58:45 · 3327 阅读 · 0 评论 -
Pytorch中nn.Parameter()参数的使用
这两天在学习怎么对网络的两个输出f1,f2,分别得到两个权重值w1,w2,然后做一个自适应的加权融合,得到最终的结果Q。在网上百度,发现了这个函数的使用nn.Parameter(),从而记录一下。1、含义解读:讲的很清楚,引用!Parameter:参数。在做神经网络的训练时,其实就是训练一个模型,这个模型就是去学习一个函数,这个函数可以准确的学习到我们想要到的东西,比如正确的对物体进行分类。函数的输入就是模型的输入:一张图像,得到的模型输出就是一个预测值。我们平时的学习率,batch大小等都是一些常见原创 2022-03-29 17:19:07 · 13128 阅读 · 5 评论 -
远程租赁服务器的一些记录
远程连接GPU服务器的简单记录原创 2022-03-20 15:11:42 · 1675 阅读 · 1 评论