经过了将近一学期,时不时的进行这部分的学习,简单说一下感受以及提出一些学习习惯方便日后监督自己。
首先,医学图像分割是个庞大的树林,目前接触最多的、较为简单的是unet网络模型,正如名字所描述的u形,通过下采样在上采样,不断提取特征、融合特征,使得“标签”更加精准,其中有部分缺点:边缘信息不太被关注、远距离提取特征不友好,这些是我在实践之后,实实在在理解到的。
其次,unet网络模型已经问世六七年了,这期间,又有许许多多方法与其融合,比如以attetion为首的注意力蒸馏、自注意力机制(Transformer)、交叉注意力机制(空间交叉、通道交叉等),去年非常受关注的swin-transformer,最近又兴起bedl(没拼对)等等,如雨后春笋层出不穷,有些子学习疲劳。我在认识他们的过程中通过b站视频、csdn、chatgpt等等,学习了很长时间,只能是看懂结构,许多代码具体内涵还是无法和原理联系起来,这是一个漫长的过程。
最后,代码一日不看都会出事。目前,图像识别处理在人工智能技术领域占据一席之地,属于浪尖上的浪尖,这也只是用字母处理多模态数据中的一部分,若有热爱,定能坚持,克服万难。
我们共勉!