MDnet 源码阅读

由于开始tracking的涉入,读了MDnet的文章,在网上找到了下面较好的源码总结,故不造轮子了,见下

 

demo_pretraining (offline training)
    mdnet_prepare_model(准备cnn网络模型)
        1、conv1-3直接采用VGG-M的结构和初始化权重
        2、添加fc4层和相应的relu和dropout层,fc5层和相应的relu和dropout层,fc6层和softmax层,fc4-6随机初始化,fc6构造为K个分支
    mdnet_pretrain,完成网络的训练和保存
        输入3个参数,seqslist,outFile,roiDir
        首先设置各种参数opts,然后通过调用mdnet_setup_data获得所有图像序列的图像列表以及正负样本bb,保存为roidb,
            getBatch(输入为:1、roidb某个子序列所有的图像路径,正样本和负样本bb;

2、img_idx为了组成一个minibatch抽到的8帧图像标号;

3、batch_pos-已设置为32;batch_neg已设置为96
            -opts代表各个参数结构体中间变量含义:pos_boxes表示正样本的组合:8帧图像,每帧50个正样本,一共400个正样本然后从0-400随机抽取32个序号idx,得到长度为32的pos_boxes,再用pos_idx来标记其所在帧处于8帧里的第几个。
同样的方法得到一个minibatch里的96个负样本,然后正负样本拼接起来;调用get_batch函数生成minibatch输出为:128个im和对应的labels,数字2代表正,1为负)


        初始化mdnet,设置fc6的1×1×K×2结构,设置最后一层为softmax_k
        训练mdnet,调用的函数为mdnet_train,过程中嵌套调用了生成minibatch的函数getBatch;
            
            -mdnet_train(输入:net,roidb,getBatch函数
首先,网络参数初始化设定然后,按照每个序列8帧一个batch,一个序列迭代100次来计算,打乱序列的图像次序后组一个800帧的序列,保存在frame_list里接着,是训练过程:
外循环是cycle100,内循环是子序列总数K在内循环里,首先得到每一个batch里乱序8帧的编号,调用getBatch生成图像和label;然后是backprop,将label送入loss层,调用mdnet_simplenn,实现网络的前向反向计算
注意:mdnet_simplenn中softmax_k是作者自己定义的层,是为fc6的多域设计的
接着是梯度更新最后是打印训练中的信息
get_batch(输入:8张图像的列表images,正负样本bb和对应帧1-8编号组成的数组boxes,varargin
输出:128张107×107×3的图像组)
        最后,调用mdnet_finish_train,将fc6还原为1×1×1×2结构,保存网络到layers
    Tracking(mdnet_run) online update
        1、调用mdnet_init执行初始化
            mdnet_init(初始化tracker:输入:图像序列image、已训练好的网络net几乎所有参数的设置都在这里,返回卷积层net_conv,全连接层net_fc,学习和跟踪过程中各参数的结构体opts)
        2、bbox回归训练
            1.调用gen_samples,生成10000个回归样本
2.调用overlap_ratio计算样本与gt的重叠率
3.选出重叠率大于0.6的样本,随机从中选择1000个作为正样本
4.调用mdnet_features_convX得到正样本经过卷积层处理后的特征图表示
5.将第4步的结果进行维度变换并拉伸为一行,输入到tran_bbox_regressor训练回归模型
                -mdnet_features_convX(提取输入图像样本bbox的卷积特征:
输入:卷积层、图像、该图像样本box、参数opts调用mdnet_extract_regions得到样本图像,然后将这些样本图像送入网vl_simplenn输出:计算得到其经过卷积层处理后的特征图)
        3、提取第一帧图像的正负样本经过三层卷积后的特征
        4、调用mdnet_finetune_hnm选出hard负样本,并和正样本一起微调net的fc层
            -mdnet_finetune_hnm(用hard minibatch来训练CNN:
输入:要微调的net部分(fc层),正样本特征,负样本特征,其他参数
注意hard体现在负样本的选择上,从1024个负样本选出得分最高的96个
输出:微调后的net,以及所有选中的正负样本序号
        5、为在线更新做好数据样本准备
        6、从第二帧开始进入主循环
            1.在当前帧调用gen-sample选出256个candidate样本,得到卷积后特征;
2.送入fc层,得到fc6二进制输出,正得分最高的五个取平均如果大于0,则为最佳结果,否则,扩大搜索范围
3.bounding box回归调整最后结果
4.做下一帧的数据样本准备,保存正负样本的特征)
    自由主题
    自由主题
    自由主题

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值