- 博客(9)
- 收藏
- 关注
原创 MUTR-Referred by Multi-Modality- A Unified Temporal Transformer for Video Object Segmentation
1、通用性:统一的框架处理语言和音频的提示信息的思想2、每一帧之间的多模态交互与帧与帧之间的包含时间信息交互创新点:1、提出一个统一的架构MUTR,用于处理多模态(语言和音频)的视频对象分割2、提出了两个基于注意力的模块MTA和MTI,用于低级多尺度聚合和高级多对象交互3、在两个任务数据集上都取得了最先进结果局限性:改进方法:Yan 等, 2023, p. 2另一种方法是传播从关键帧中检测到的目标掩膜,并基于视觉接地模型选择待分割对象。
2024-04-12 19:24:27 1803
原创 GRES: Generalized Referring Expression Segmentation代码复现
这个过程涉及下载预训练模型文件并将其转换为不同的格式,可能是为了后续在某个特定的深度学习框架或应用中使用。这段代码的作用是使用指定的配置文件对模型进行训练,同时指定了使用的 GPU 数量、权重路径和输出目录。
2024-03-12 20:47:10 1975 5
原创 云服务器代码复现踩坑笔记
解决方案:1、看别人的博客在输入的命令之前加上让git忽略ssl证书错误问题没有解决2、最终解决应该是网络问题,多试几次就好了(笑哭)可能是我在安装的同时也在云盘下载数据集,导致了错误。
2024-03-11 11:55:21 582
原创 AutoDL省钱绝招
如果在编写/调试代码、上传下载数据到实例、给他人做代码展示等不需要GPU卡场景时,可以关机后使用无卡模式开机,无卡模式开机的区别在于对于这次开机会使用0.5核;2GB内存;无GPU卡的配置,价格统一为¥0.1/小时,对于实例之前和之后的数据均无影响,今后仍然可以使用正常的模式开关机。使用方法:缺点:无卡模式会释放GPU,置GPU为空闲状态,正常开机时如果GPU被其他用户租用,可能出现空闲GPU不足的情况。
2024-03-10 19:40:04 1723 1
原创 MAttNet- Modular Attention Network for Referring Expression Comprehension
出版年份:2018\ 出版期刊:CVPR2018\ 影响因子:\ 文章作者:Yu Licheng,Lin Zhe,Shen Xiaohui,Yang Jimei,Lu Xin,Bansal Mohit,Berg Tamara L.最近的大多数研究都将表达式视为一个单一的单元然而,这些工作大多使用所有特征(目标对象特征、位置特征和上下文特征)的简单串联作为输入,使用单个LSTM对整个表达式进行编码/解码,忽略了不同类型指称表达式之间的差异。模块化网络我们提出了第一个用于一般指称表达式理解任务的模块化网络
2024-03-05 10:32:05 2003
原创 强化学习笔记
记录有关强化学习知识,强化学习 (Reinforcement Learning) 是一个机器学习大家族中的分支, 由于近些年来的技术突破, 和深度学习 (Deep Learning) 的整合, 使得强化学习有了进一步的运用. 比如让计算机学着玩游戏, AlphaGo 挑战世界围棋高手, 都是强化学习在行的事,总结莫凡老师强化学习的笔记通过不断尝试试错,从错误中学习,找到规律,学会了达到目的的方法监督学习, 是已经有了数据和数据对应的正确标签强化学习还要更进一步, 一开始它并没有数据和标签.通过一次次在环境
2024-03-04 10:58:18 902 1
原创 GRES- Generalized Referring Expression Segmentation
GRES: Generalized Referring Expression Segmentation
2024-03-04 10:23:33 1098 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人