- 博客(10)
- 收藏
- 关注
原创 PyCharm 连接服务器进行远程开发和调试
首先配置 Pycharm 服务器的代码同步,打开 Tools -> Deployment -> Configuration,点击左边的 + 添加一个部署配置,输入配置名 Name,Type 选择 SFTP,然后确认。3.配置远程服务器的 IP(Host),端口(默认22),用户名和密码,Root Path 是项目文件在远程服务器中的根目录,根据需求配置,例如 /home/ubuntu/ML,这个目录需要登录用户的创建权限。有几种方法可以实现本地和远程文件的同步,手动和当文件保存后自动触发。
2023-01-05 21:17:51
389
原创 【论文阅读笔记】Image Captioning: Transforming Objects into Words
在传统transformer上进行改进,推出Object Relation Transformer,特别适合于图像字幕的任务。
2023-01-05 21:13:58
432
原创 【论文阅读笔记】Recurrent fusion network for image captioning.
循环融合网络(RFNet),利用多个图像表示的互补信息来进行图像标题。
2023-01-05 21:10:57
244
1
原创 【论文阅读笔记】Show, Attend and Tell: Neural Image Caption Generation with Visual Attention.
受机器翻译的attention机制启发,将其应用到image caption领域,并提出了hard和soft两种attention机制。相比较来说,hard attention更难训练,效果也更好。这篇文章打开了attention图像领域的先河。
2023-01-02 21:53:13
195
原创 【论文阅读笔记】Show and Tell: A Neural Image Caption Generator.
image captioning神经网络开山之作,这篇文章提出了一个可以自动查看图像并生成合理描述的端到端神经网络系统,称之为NIC。
2023-01-02 17:26:03
312
1
原创 【论文阅读笔记】Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering.
本文提出了一种结合bottom-up attention和top-down attention的视觉注意力机制,可以看成CNN-Attention + LSTM-Attention。它能够更有效地关注场景的结构,也具有更好地可解释性。
2022-12-29 14:03:04
291
1
原创 【论文阅读笔记】Say As You Wish: Fine-grained Control of Image Caption Generation with Abstract Scene Graphs
为了提高从图到句子的质量,我们提出了一种专门针对图的解码器language decoder for graphs ,该解码器包括一个基于图的注意机制,它同时考虑了图的语义和结构,以及一个图的更新机制,它记录了描述的内容和没有描述的内容。然而,大多数图像字幕模型只被动生成图像描述,并不关心用户对什么内容感兴趣,描述应该有多详细,也就是说,不能根据不同的用户意图自动生成不同的描述。基于ASG,我们提出了一种asg2caption模型,该模型能够识别图中的用户意图和语义,从而根据图的结构生成所需的标题。
2022-12-29 13:39:08
246
1
原创 【论文阅读笔记】Attention on Attention for Image Captioning.
AOA改善了以往的注意力机制,以解决不相关的注意问题,将AoA模型应用与编码与解码阶段,带来了最新的性能。并且具有优越性和普适性。
2022-12-27 17:50:55
544
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人