自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 Elsevier投稿记录

documentclass[preprint,12pt,authoryear]{elsarticle},好像是因为elsarticle里面已经有natbib了。不要用biblatex了,也不用在开头再写usepackage natbib。记录一下以防下次又遇到。主要是文献引用的问题。2、上传了ref.bib,到系统编译后所有引用变成了“?3、overfleaf编译无法生成PDF,一直报错。1、biblatex和natbib不兼容。文中引用用\cite{}之类的。清除缓存后重新编译。

2024-07-03 12:17:03 273

原创 Back to MLP: A Simple Baseline for Human Motion Prediction

输入为T*C,T帧,每一个动作C个参数表示,其中C=3*K(K是关节点数,一个关节点由一个3维坐标表示);用RNN、GCN等复杂网络结构的参数量很大,超过200万→使用基于MLP的轻量级网络,只有0.14万个参数。zi表示第i个block 的输出(形状为T*C,i从1到m),W的维度为T*T,bi为T。N和T不一定要相等,T更大时就截取输出的前N帧作为预测结果,T更小的时候就将其扩充到N帧。接着,像一开始的全连接层一样,只对特征的空间维度操作。首先对数据进行DCT变换,采用DCT变换对时间信息进行编码,

2024-03-05 10:10:20 327

原创 History Repeats Itself: Human Motion Prediction via Motion Attention

表示历史子序列加其对应的未来序列的DCT编码(因为后面预测器采用的是GCN作用域DCT编码的方式,为了Attention的输出和GCN的输入一致,value用DCT编码)。:选取最后M帧,即[N-M+1:N],把最后一帧([N])复制T次,组成长度为M+T的序列,将其与Motion Attention的输出结果的DCT表达(长度也是M+T)concat起来变成K*2(M+T)作为GCN的输入。长度为N帧的子序列[1:N],分成N-M-T+1个长度为M+T的子序列(子序列从头往后滑动)。

2024-02-29 16:23:04 523

原创 Two-Stream Adaptive Graph Convolutional Networks for Skeleton-Based Action基于双流结构的自适应图卷积网络的骨骼姿态识别

(空间维度的图卷积公式)在空间维度上,对每一个顶点vi,计算它在下一层的向量值的方式为:所有跟vi相邻为1的点vj一起组成一个采样面积Bi,w是权重向量。输入为Cin*T*N,用两个可训练的卷积核θ、φ(都是1*1)转化为两个Ce*T*N,reshape成N*CeT和CeT*N,得到N*N的相似矩阵Ck,用softmax标准化为0~1之间。自适应图卷积网络(AGCN)由9个上面的自适应图卷积块组成(输出通道数:64,64,64,128,128,128,256,256,256)空间和时间的图卷积是分开的。

2024-02-28 14:18:45 1247

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除