自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 mmpretrain代码学习

然后来到了mmpretrain的亮点部分了,便于后续复用的config文件。头部head的num_classes=2 ,数据集中的 dataset_type=’CustomDataset’ ,训练集,测试集dataroot的位置。在分类算法中,混淆矩阵(Confusion Matrix),也称为错误矩阵(Error Matrix),是一种用于衡量分类模型性能的矩阵形式。首先引入mmpretrain包里的get_model,list_models,inference_model。其中主干网络是核心。

2023-06-07 22:56:06 150 1

原创 MMPretrain理论学习

谈到transformer的注意力机制,主要是在卷积上加成了一个函数。也提到了多头注意力相当于多通道分开的注意力卷积后的级联。图像文本对的clip目标函数借鉴了对比学习:拉近正样本,退远负样本。最后用prompt的方法,可以把clip变成一个分类器,居然比传统的分类器好很多。只训练其中的桥接不分的Q-former。并且现在越来越有和LLM一样的范式:在预训练模型的基础上对下游任务进行调优。4.最让我感到诧异的其实是提高对比学习和MAE掩码学习的融合。才知道现在大名鼎鼎的DINO,居然就是这两种方式的融合。

2023-06-06 22:51:25 187

原创 关于人体姿态估计

transformer的人体估计:大体上是cnn+transformer。token并没有直接利用原图。而是用cnn后的特征图。整体架构和VIT类似。当然没有去确认transformer类的说法的精度是否是SOTA。初步学习了下人体姿态估计,卢老师高屋建瓴来了场overview.由于内容庞杂,只能简要记录下影响比较深刻的点。人体参数化模型:SPML模型,将人体描述参数化,解耦成形态和姿态。然后利用参数化公式进一步学习。RLE: 之前在SAM里听到过这个词,但并没有深究。这次重点提到了RLE。

2023-06-01 23:52:29 98 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除