Fully Convolutional Networks for Semantic Segmentation

最近差不多确定研究方向——图像语义分割。所以我就下载了2015年最开始进行语义分割的一篇paper,使用全卷积网络进行语义分割,代替了以前的卷积神经网络。全文的翻译在网上可以扒到一大堆,我在这里就不再翻译全文了。接下来我说一下我学习这篇paper的一些感想。(本人研一,初读论文,没有经验,没有方法,都是自己在慢慢摸索,欢迎成功人士慷慨指导)

首先是看这篇paper的摘要,摘要基本告诉我们本论文要干什么、采用什么方法、结果怎么样。紧接着就看结论,通过一系列的研究和实验得出了什么样的结论。然后我们就要对paper进行解读,本论文顺序是引言—>相关工作—>全卷积网络—>分割结构—>结果。英文不易看懂,就先看中文大致翻译,因为有的中文翻译却似都变味了,不是那个原本意思了。

将论文看完后,我在GitHub上找到了对应的开源代码,首先是下载下来,进行慢慢研究。代码使用的还是以前的caffe框架,如今现在常用的是keras\tensorfloew\pytorch等框架。所以对于我来说,还是不容易懂的,最开始文件夹中的代码都不知道是什么意义,一个一个在网上查询,其实我们可以使用我们常用的框架进行对FCN进行实现,比较容易简单,毕竟那是几年前的代码了。等我最近忙完了我就研究一下,然后再来更贴。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值