优化的终章---跳出局限的遗传!

    0.学习路径示意图 

640?wx_fmt=png

1.前言

    Hello,各位小伙伴们,大家早上好呀,又是一个阳光洒满大地,朝气蓬勃的日子。不知道小伙伴们是否还记得博主上周介绍过的知识点,不记得也没关系,这里博主还是一如既往地给大家附上上期的链接。上期博主介绍了优化器(optimizer)的原理及使用,不可否认的是,即便是集动量(mv)自适应学习率(adaptive learning rate)于一身的Adam优化器,也有可能在训练的过程中陷入局部最小值的旋涡,最终葬身于此。这期,博主来给大家讲个新东西----遗传算法,为的就是优雅地跳出局部最小值,得到最优解。

Tensorflow超参数的设置

阿力阿哩哩,公众号:Python机器学习体系码前须知---TensorFlow超参数的设置

    相信各位小伙伴对遗传这个词已经不陌生了,我们人类文明发展至今离不开遗传与进化。不知道大家有没有一种感觉,现在的初中生已经比我们这群大学生高了,往宏观里想就是下一代已经比我们这一代在身高上已经优化了。博主还在混迹于各大黑网吧的初中年代,在广东是很少能见到有180+的小伙子浪荡于街头的,现在随便一个穿校服的小孩子均高都在180+。博主每次坐地铁都深感惭愧,但同时也感叹生命的力量,遗传让每一个弱小的生物在代际循环中获得了优化的力量,表现出越来越适应生存环境的能力,因为不适应环境的生命早在迭代的过程中逐渐消亡。为此,博主也验证了穷不过三代是对的,因为穷小子在第三代就找不到老婆了TAT。不过大家也不用妄自菲薄,每个小伙伴能来到这个世界上,说明大家的父辈的父辈的父辈们至少是个大户人家。smiley_13.png

    

    显然,博主能注意的小现象,很多年前肯定也有小伙伴会注意到,为此有些厉害的小伙伴就将遗传搬进了计算机,让计算机模仿遗传,赋予程序优化的力量。

    好了,讲到这,博主现在就给小伙伴们讲一下遗传算法与上一期介绍的优化器(optimizer)有啥不一样。和我们之前所说的优化器不一样,遗传算法的整体搜索策略和优化搜索方法在计算时不依赖于梯度信息或其它辅助知识,只需要影响搜索方向的目标函数(Target Function)和相应的适应度函数(Fitness Function),所以遗传算法提供了一种求解复杂系统问题的通用框架,它不依赖于问题的具体领域,对问题的种类有很强的稳定性,所以广泛应用于许多科学。

    翻译成人话就是遗传算法能够解决很多问题,机器学习只是一个方向,小伙伴们只

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值