深度学习语义分割马拉松000——序言

深度学习语义分割马拉松000——序言

背景

本人做医疗图像处理相关的业务,主要是使用语义分割方面的工作。最近在工作中看到了之前同事收集的语义分割相关的文档,基本把语义分割的历史进程梳理了一遍。但是感觉美中不足的是,像网上许多讲解性的文章一样,更多的是分析论文,从理论角度来讨论如何实现等问题,却没有真正的实现代码以及相关的测试环境,所以想一方面是可以共同学习共同进步,另一方面也是自己对相关历程的一个总结。

环境

在整个实现的过程中,我会使用Ubuntu16.04系统,Python3.6,Tensorflow1.13,keras2.2.4,cuda10的环境进行编写,后边也会有相应的配置过程讲解

整体流程

这里考虑到环境系统等差异可能会影响实现的过程以及结果,同时也为了帮助一些新人更方便的搭建环境,在最开始会从头讲解如何搭建开发环境,以及数据整理,力争可以有一个相对稳定的环境来进行后边的模型编写

总结

作为一个好的开始,这篇就到这了,如果之后有时间,应该除了文章也会出相应的b站视频,希望自己不要只挖坑。。。

TODO

  • 完事开头难的序言
  • 环境系统搭建

DFTBA

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值