![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
欲善其事
文章平均质量分 71
工欲善其事必先利其器
超能力猪
白手起家搞科研
展开
-
RegionCLIP (CVPR 2022) 的官方 PyTorch 实现
我们提出的 RegionCLIP 对 CLIP 进行了大幅扩展,以学习区域级视觉表征。RegionCLIP 可实现图像区域与文本概念之间的精细对齐,从而支持基于区域的推理任务,包括零镜头对象检测和开放词汇对象检测。: 我们利用 CLIP 模型将图像区域与模板标题相匹配,然后对模型进行预训练,以对齐这些区域-文本对。: 经过预训练后,学习到的区域表征就能支持物体检测的零点推理。: 学习到的 RegionCLIP 模型可通过附加的对象检测注释进一步微调,从而使我们的模型可用于完全监督或开放词汇的对象检测。翻译 2023-12-12 16:53:12 · 426 阅读 · 2 评论 -
CLIP在Github上的使用教程
可以用自然语言指示它在给定图像的情况下预测最相关的文本片段,而无需直接对任务进行优化,这与 GPT-2 和 3 的零镜头功能类似。我们发现,CLIP 无需使用任何 128 万个原始标注示例,就能在 ImageNet "零拍摄 "上达到原始 ResNet50 的性能,克服了计算机视觉领域的几大挑战。给定一批图像和一批文本标记,返回两个张量,其中包含与每张图像和每个文本输入相对应的 logit 分数。可以选择指定运行模型的设备,默认情况下,如果有第一个 CUDA 设备,则使用该设备,否则使用 CPU。原创 2023-12-05 17:12:03 · 1472 阅读 · 1 评论 -
下载CVPR论文集
前一段时间想看CVPR的论文,想上网找CVPR的论文集,找了半天找不到,然后在微信搜一搜上发现了如下代码,可以一键爬取所有论文,甚喜。只记得文章最开头硕大几个字**“授人以鱼不如授人以渔”**。在下面python代码的同级目录下新建CVPR2023文件夹,然后运行文件即可。如果需要下载其他年份的论文,只要将。中的2023改为对应年份即可。原创 2023-11-29 11:20:46 · 703 阅读 · 0 评论