李宏毅机器学习hw1~4作业 强化点

这篇博客详细介绍了李宏毅机器学习课程的作业,涵盖特征选择、激活函数(LeakyReLU和ELU)、学习率(余弦退火算法)、HMM、dropout在目标检测中的应用、Focal Loss与Equalized Focal Loss,以及Conformer和Self-Attention Pooling在模型融合中的角色。内容深入浅出,适合机器学习初学者巩固知识。
摘要由CSDN通过智能技术生成

李宏毅机器学习hw1

1. 特征选择

利用sklearn中的特征选择方法,选择了少量最有影响的特征。对特征进行归一化处理,将其转换到[0, 1]区间内。
参考:基于sklearn的特征选择方法

2. 激活函数

LeakyReLU

优点:
1、针对Relu函数中存在的Dead Relu Problem,Leaky Relu函数在输入为负值时,给予输入值一个很小的斜率,在解决了负输入情况下的0梯度问题的基础上,也很好的缓解了Dead Relu问题;
2、该函数的输出为负无穷到正无穷,即leaky扩大了Relu函数的范围,其中α的值一般设置为一个较小值,如0.01;

缺点:
1、理论上来说,该函数具有比Relu函数更好的效果,但是大量的实践证明,其效果不稳定,故实际中该函数的应用并不多。
2、由于在不同区间应用的不同的函数所带来的不一致结果,将导致无法为正负输入值提供一致的关系预测。

ELU

优点

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值