- 博客(5)
- 资源 (2)
- 收藏
- 关注
翻译 6/25 计算机视觉中的注意力机制
01注意力机制(attention mechanism)attention机制可以它认为是一种资源分配的机制,可以理解为对于原本平均分配的资源根据attention对象的重要程度重新分配资源,重要的单位就多分一点,不重要或者不好的单位就少分一点,在深度神经网络的结构设计中,attention所要分配的资源基本上就是权重了视觉注意力分为几种,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征,有通道注意力,像素注意力,多阶注意力等02自注意力(self-attention)
2020-06-25 23:14:54 1143
原创 6/25 Yann Lecun:计算机视觉的未来是自监督学习
https://mp.weixin.qq.com/s?__biz=MzIwMTE1NjQxMQ==&mid=2247518600&idx=1&sn=1f84a3068a5ea691a8060fdd4c14fa5e&chksm=96f0fbdca18772ca5ecaadcd22fabc0c1d6a8b130bd065f04ab68b84d8fdb4a62dab26442663&mpshare=1&scene=1&srcid=&sharer_sh
2020-06-25 19:41:32 294
原创 6/17 Deep Face SR with Iterative Collaboration between Attentive Recovery and Landmark Estimation
CVPR2020 Deep Face SR with Iterative Collaboration between Attentive Recovery and Landmark EstimationAttention恢复与关键点估计之间具有迭代协作的深度人脸超分辨率Abstract现有方法无法充分利用先验知识,因为人脸先验信息(例如关键点 component map)是由低分辨率或粗略的超分辨图像估计的,这可能是不准确的,因此会影响超分性能。在这篇文章中,作者提出一种在这两个循环网络
2020-06-17 23:12:22 1678 5
原创 Attention
x:待测样本 xi:已有样本 a相当于测量两个样本的相似度 根据已有样本的标签做预测pooling整合的motivation是找出最大响应的那些值,去抑制没有响应的值如图像背景数据清洗小x相当于queryX相当于key计算相似度来筛选featureembeding的思想:把很多样本做一个整合,这个特征向量中包含很多信息attention------softmax 用softmax对attention进行建模应用领域:单词句子atten...
2020-06-12 10:33:06 198
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人