caffe solver文件个参数的意义

    test_iter: 1000     //测试的批次,一次性执行全部数据,效率较低,因此分几个批次进行执行,    
                        //如果每个批次数量设为batch_size,则有以下关系:test_iter = 测试样本总数/batch_size    
      
    test_interval: 1000 //测试间隔,即每训练1000次,进行一次测试     
      
    test_initialization: false //是否可以用上次保存的snapshot来继续训练,如果为True,则下次开始训练的时候,caffe会自动从这个目录下加载最近一次迭代的模型,继续训练,以节省时间。如果是False,则会从0开始重新迭代。所以这个参数的默认值是False。  
      
    base_lr: 0.01       // 基础学习速率(初始学习率),迭代过程中可以对基础学习速率进行调整,调整策略通过lr_policy来设置    
    lr_policy: "step"   // lr_policy设置参数:    
                        //- fixed:   保持base_lr不变.    
                        //- step:    如果设置为step,则还需要设置一个stepsize,  返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示当前的迭代次数    
                        //- exp:     返回base_lr * gamma ^ iter, iter为当前迭代次数    
                        //- inv:      如果设置为inv,还需要设置一个power, 返回base_lr * (1 + gamma * iter) ^ (- power)    
                        //- multistep: 如果设置为multistep,则还需要设置一个stepvalue。这个参数和step很相似,step是均匀等间隔变化,而multistep则是根据                                 stepvalue值变化    
                        //- poly:     学习率进行多项式误差, 返回 base_lr (1 - iter/max_iter) ^ (power)    
                        //- sigmoid: 学习率进行sigmod衰减,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))                      
    gamma: 0.1          //学习率变化的比率    
    stepsize: 3000      //每迭代3000次,调整一次学习率      
      
      
    display: 20  //每20次迭代,显示一次      
    max_iter: 12000 //最大迭代次数。这个数设置太小,会导致没有收敛,精确度很低。设置太大,会导致震荡,浪费时间。    
    momentum: 0.9   //学习的参数,不用变    
    weight_decay: 0.0005  //权重衰减项,防止过拟合的一个参数    
    snapshot: 5000  //每迭代5000次,保存一次训练权值    
    snapshot_prefix: "caffenet_train"  //设置保存训练权值的路径     
    solver_mode: GPU  //选择使用CPU还是GPU运行   

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值