人工智能
文章平均质量分 77
卡伊德
我没有超能力,但我能用代码嗨翻你!
展开
-
因果学习篇(2)-Causal Attention for Vision-Language Tasks(文献阅读)
一篇由南洋理工大学和澳大利亚莫纳什大学联合发表自2021年的CVPR顶会上的一篇文献,提出了一种新的注意力机制:因果注意力(CATT),使用因果推断中的“前门准则”解决训练数据中存在的虚假相关性,刨析了注意力机制在推理过程中的因果原理,在提高模型性能的前提下,加强了模型的可解释性,打开了神经网络的黑匣子,具有非常好的参考意义。原创 2024-03-06 17:45:59 · 2145 阅读 · 0 评论 -
元学习(小样本)-基本概念
以分类任务为例,机器学习可以看作是找一个猫狗的分类函数。原创 2023-07-25 14:57:37 · 262 阅读 · 0 评论 -
视频行为识别(二)——小样本动作识别的分层组合表示
一篇小样本动作识别的论文,提出了一种新的分层合成表示(HCR)学习方法,用于小样本动作识别。原创 2023-07-10 23:16:17 · 548 阅读 · 0 评论 -
视频行为识别(一)——综述
解读2023CVPR上的一篇综述论文,讲述了当前热门的视频人体行为识别方向。原创 2023-07-09 00:25:48 · 1111 阅读 · 0 评论 -
异常处理:pyemd或PyEMD找不到
异常处理经验:pyemd或PyEMD找不到(No module named 'pyemd')原创 2022-07-26 08:55:59 · 1103 阅读 · 1 评论 -
异常解决:cococaption包出现找不到edu.stanford.nlp.semgraph.semgrex.SemgrexPattern错误
异常解决经验分享: coco-caption包出现找不到edu.stanford.nlp.semgraph.semgrex.SemgrexPattern错误原创 2022-07-25 22:55:29 · 1213 阅读 · 2 评论 -
浅析Swin transformer模型(通俗易懂版)
对于最近新出的Swin Transformer的系统学习,包括模型的基本结构、参数介绍、计算过程等详细介绍,全面了解该模型,文中包含相关代码和论文下载连接。原创 2022-07-06 10:49:12 · 8163 阅读 · 1 评论 -
循环神经网络(RNN)及其变体GRU和LSTM的基础知识详解(公式)
RNN计算公式RNN结构图结构图中变量名介绍a:上一个时间步的激活值(activate value)x :第x个输入(一句话中第x个字)y:第y个输出(预测值)Waa:与激活值进行计算的参数。其中第一个a是指当前参数是计算a(激活值)的,第二个a是指当前参数与激活值进行乘运算Wax:与输入进行计算的参数。其中第一个a是指当前参数是计算a(激活值)的,第二个x是指与输入值x进行运算Wya:与激活值运算的参数,得到的记过为y。其中第一个y是指当前参数是计算输入值y的,第二个a是指与激活值a进原创 2022-02-15 22:05:18 · 2009 阅读 · 0 评论 -
SEnet 通道注意力模块
SEnet 通道注意力模块开篇一张图:变量和图片解释:三个正方体:特征向量,比如说图像的特征,H表示图片高度、W表示图片宽、C表示通道(黑白1通道、彩色3通道)字母:X表示输入特征;Ftr表示的是对X进行一次卷积,也就是对特征进行一系列的操作之后的结果,表示为U;Fsq(.)表示的是对U进行压缩;Fex(.)表示的是对U进行激活(就是赋予权重);Fscale(.)表示的是对U进行放大(就是恢复维度);执行过程对于输入的特征X进行一些列处理(在图中表示为卷积:Ftr)之后,得到处原创 2021-12-30 21:16:50 · 1910 阅读 · 0 评论 -
论文阅读--Semantic Grouping Network for Video Captioning
Semantic Grouping Network for Video Captioningabstract提出了Semantic Grouping Network(SGN)网络:用部分已经解码的字幕中,选择可可以区分的单词短语对视频帧进行分组,也就是将表达不同意思的帧分组(与聚类相似);对语义对齐的组进行解码,以预测下一个单词;(根据前面的已经生成的、分好组的词预测下一个)以前:丢弃或者合并重复视频信息SGN:检索最有鉴别能力的单词短语,然后将这些词与视频帧关联 。这样可以让语义差不多的帧原创 2021-12-28 20:22:25 · 1137 阅读 · 0 评论