![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读笔记
芍子zi
别让我飞,将我温柔豢养
展开
-
论文整理(陈怡然团队)
1.Cheng H, Zhang T, Yang Y, et al. SwiftNet: Using Graph Propagation as Meta-knowledge to Search Highly Representative Neural Architectures[J]. arXiv: Learning, 2019.主要方法解决问题提出了基于GRAM的一种起名为SwiftNet的网络模型,使用结构级修剪以实现更高的精度密度,而不是使用通道深度缩放在资源和精度之间进行权衡原创 2020-06-05 20:44:52 · 424 阅读 · 0 评论 -
论文笔记:(微表情综述)Analysis on Emotion Detection and Recognition Methods using Facial Microexpressions.
1.面部表情的自动分析包括三个步骤:获取面部图像,提取并表示感兴趣的数据并识别表情。2.面部表情计算分析的局限性表情包含有关人脸身份和表情变化的信息,因此提取的特征通常是表情变化和身份特征的混合体。(1)光照影响。 从不同方向和不同强度照亮面部的方式对特征提取有重大影响。 如果关键区域(例如眼睛或嘴巴)的光线昏暗,这会影响特征提取并干扰面部表情识别。(2)只关注于姿势。 心理学家将这些表情按姿势或自发性进行分类,在外观和时间特征方面彼此不同。而自动化检测的面部表情识别系统专注于姿势表情,而我们的日常原创 2020-05-21 10:33:12 · 1228 阅读 · 0 评论 -
论文笔记(微表情识别):Micro-Attention for Micro-Expression Recognition
限制微表情识别准确性的两个方面:(1) 面部小局部区域微表情的存在(2) 可用数据集大小的局限性(目前许多微表情数据集都远小于喂入网络的其他数据集,这可能会导致眼中的过拟合问题)为此,本文提出了一种微注意力与残差网络想结合的新的注意力机制。(此种整合可以减少参数数量)特征工程的方法更适合离线,端到端的方法更适合快速、实时、线上的场合。(本文运用的是基于深度学习思想的用于微表情识别的端到...原创 2020-04-25 18:36:18 · 3326 阅读 · 4 评论 -
Memory Network----------李宏毅视频笔记
1.Attention model2.memory network model(1)做attention的vector和提取information的vector是不一样的两组(用不同的DNN一起训练得到)(2)可以做hopping这件事:就是把得到的Extracted Information回过来再与Query做summation后继续再算新的attention scores(原始的做的工...原创 2020-04-14 12:09:16 · 389 阅读 · 2 评论 -
论文阅读笔记:Recurrent Model of Visual attention(2014Deepmind)
总述:该论文在RNN模型上使用了attention机制来进行图像分类Model1.Sensor部分在每个步骤t,从输入xt中提取感兴趣的部分(给定一个location坐标lt-1周围处提取部分图像信息)对l更远处的信息采用低分辨率,使图像维度降低使用glimpse network fg产生向量gt三个θg分别是给定一个坐标提取的n个子图下采样后的表达p(xt,lt-1)线性回归后所得...原创 2020-04-07 18:23:48 · 339 阅读 · 0 评论