transformer
文章平均质量分 90
如雾如电
剑花,烟雨,江南
展开
-
IDET变化检测模型
变化检测模型(IDET: Iterative Difference-Enhanced Transformers for High-Quality Change Detection)原创 2022-10-19 18:00:00 · 1713 阅读 · 8 评论 -
TransFuse跑自己的数据集
基于Transformer的语义分割原创 2022-08-21 14:13:56 · 4531 阅读 · 31 评论 -
Polyp-PVT跑自己的数据集
Polyp-PVT跑自己的数据集原创 2022-06-05 18:08:05 · 1958 阅读 · 38 评论 -
Github复现-测试基于transformer的变化检测模型BIT_CD
基于Transformer 的变化检测模型测试原创 2022-03-30 01:08:10 · 10996 阅读 · 116 评论 -
Github复现之TransUNet(Transformer用于语义分割)
Transformer最近应该算是一个发文章的新扩展点了,下面给出了三个网络的结构分别是TransFuse,TransUNet,SETR。很明显,结构里那个Transformer层都是类似的,感觉只要用一下那个层,包装一下,发文章会比纯做卷积网络创新相对轻松些,目前我只用了TransUNet,也没有怎么训练,还没法给出实际效果的好坏评价,后续会多做实验,评估这些网路用于实际时究竟怎样,接下来就先完成一下TransUNet的复现。TransFuse论文链接:https://arxiv.org/abs/21原创 2021-04-09 14:55:28 · 44361 阅读 · 221 评论 -
Swin-Unet跑自己的数据集(Transformer用于语义分割)
Transformer用于语义分割原创 2022-03-21 13:29:55 · 29933 阅读 · 311 评论 -
Github复现之TransUnet更新
上一篇关于TransUnet的GitHub复现,大家反映效果不好,调参也不好调,我把模型单独拿出来,放到另外一个框架,供大家参考学习(上一篇链接:https://blog.csdn.net/qq_20373723/article/details/115548900)我这里训练了20个epoch,下面先给出效果正常的情况:原图预测结果整体代码结构:1.数据准备,文件名字请务必保持一致,不过你也可以去代码里改一级目录,红线的三个,其它不用管二级目录三级目录就是图像和标签,二者名字保持一原创 2021-05-24 16:16:18 · 44827 阅读 · 939 评论