tensorflow目标检测使用自定义的Optimizer(AMSGrad为例)

0.环境

ubuntu16.04
models-1.12.0
tenosrflow-v1.12.0
python3.5

对于models的编译请参考我的其他博客。 

1.下载

本文主要使用的这个版本的AMSGrad(https://github.com/taki0112/AMSGrad-Tensorflow)

将AMSGrad.py复制到/models-1.12.0/research/object_detection/builders/

2.修改

2.1 optimizer_builder.py

/models-1.12.0/research/object_detection/builders/optimizer_builder.py

Line20:

from object_detection.builders.AMSGrad import AMSGrad

 

Line62-66:

  if optimizer_type == 'ams_grad_optimizer':
    config = optimizer_config.ams_grad_optimizer
    learning_rate = _create_learning_rate(config.learning_rate)
    summary_vars.append(learning_rate)
optimizer = AMSGrad(learning_rate)

 

 

 2.2 optimizer.proto

/models-1.12.0/research/object_detection/protos/optimizer.proto

Line9-18:

message Optimizer {
  oneof optimizer {
    RMSPropOptimizer rms_prop_optimizer = 1;
    MomentumOptimizer momentum_optimizer = 2;
    AdamOptimizer adam_optimizer = 3;
    AMSGrad ams_grad_optimizer = 6;// Added
  }
  optional bool use_moving_average = 4 [default = true];
  optional float moving_average_decay = 5 [default = 0.9999];
}

 

Line42-44:
message AMSGrad {
  optional LearningRate learning_rate = 1;
}

3.protoc编译

在/models-1.12.0/research/目录下,重新执行:

./protoc object_detection/protos/*.proto --python_out=.       

optimizer_pb2.py是protoc生成的,所以有什么错误的话,看报错的对应的line,然后看看其他写的例子进行修改。

 执行后如果什么都不报,就是ok的。

4.使用(config)

因为只需要去对学习率赋值,所以较为简单: 

 optimizer {
    ams_grad_optimizer: {
      learning_rate: {
        exponential_decay_learning_rate {
          initial_learning_rate: 0.004
          decay_steps: 800720
          decay_factor: 0.95
        }
      }
}

 

 

参考

1.AMSGrad-Tensorflow

2.Custom-Optimizer-in-TensorFlow

3.Stackoverflow-How to create an optimizer in Tensorflow

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wait a minutes

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值