手撕代码
文章平均质量分 87
对实际模型项目的代码进行疯狂的拆解
宇智波瞎眼猫
这个作者很懒,什么都没留下…
展开
-
手撕代码HAttMatting(3):dataset
dataset的反推原创 2022-03-28 11:55:07 · 2513 阅读 · 0 评论 -
手撕代码HAttMatting(2):训练过程
训练过程简述原创 2022-03-21 10:01:29 · 574 阅读 · 1 评论 -
手撕代码HAttmatting(1):模型概述
HAttMatting的模型概述原创 2022-03-17 17:13:31 · 1924 阅读 · 0 评论 -
手撕代码deep image matting(8):test
测试篇原创 2022-03-09 20:02:11 · 981 阅读 · 2 评论 -
手撕代码deep image matting(7)
重新审视train和valid函数原创 2022-03-06 21:10:15 · 948 阅读 · 0 评论 -
手撕代码deep image matting(6):dataset(2)
dataset的进一步的分析原创 2022-03-01 18:02:07 · 1205 阅读 · 0 评论 -
手撕代码deep image matting(6):dataset(1)
dataset的一部分讲解,因为真的太多了原创 2022-02-25 15:23:01 · 1519 阅读 · 0 评论 -
手撕代码:deep image matting (5)train和valid函数
vali和train函数的代码的一知半解def train(train_loader, model, optimizer, epoch, logger): model.train() # train mode (dropout and batchnorm is used) losses = AverageMeter() # Batches for i, (img, alpha_label) in enumerate(train_loa原创 2022-02-20 10:22:31 · 1977 阅读 · 0 评论 -
手撕代码1:deep image matting (4) DIM模型结构
dim的模型结构使用了Ctrl+F12生成出来的函数内部结构来看,变量这块实际上是缺失了,由于整体的代码长度太大,先看函数构造在细扣里面细节。init和forward是大部分继承pytorch的nn.Module模块的函数必须要具备的两个函数,init作为初始化函数,forward作为前向传播的函数。这里面有一个细节上的问题,在实际使用的时候并没有出现model.forwad()的代码,原因是直接使用函数模块调用DIMMod原创 2022-01-12 21:41:32 · 2701 阅读 · 2 评论 -
手撕代码1:Deep image matting(3)
大致看一下train_net的函数原创 2022-01-05 15:15:05 · 1733 阅读 · 6 评论 -
手撕代码1:deep image matting (2):ArgumentParse
对args对象进行解构这篇复现代码最舒服的地方就是把什么零件都在外面给你展示好了,至少不用在各种奇奇怪怪的文件夹里面翻箱倒柜。这里面进行解析的时候先把预处理的放到一边,从训练开始进行一点一点的解构,也就是train.pytrain.py 模型训练过程按照我的个人经验来说,从main函数进行拆解的话效率会特别高。那就直接进行拆解。简单粗暴到有点过分的程度,直接调用函数进行看似复杂的训练过程。首先声明.原创 2022-01-04 19:56:19 · 763 阅读 · 0 评论 -
手撕代码1:deep image matting
前言本系列文章就是为了解决一个特别坑的问题:下载下来的github模型该怎么去看懂。毕竟大多数从论文学代码的家伙的基础都是。。。差不多的拉。。。所以就把这个笔记作为一个记录弄上来了。代码github地址:https://github.com/foamliu/Deep-Image-Matting-PyTorch论文地址:https://arxiv.org/abs/1703.03872这篇论文被称为深度学习抠图的开山之作,在之后的深度学习抠图...原创 2022-01-04 10:35:07 · 3122 阅读 · 5 评论