机器学习常用算法和名词

声明:本文仅仅是作者用来为2019年春招准备,并无其他用处,本人完全尊重文中链接作者的知识产权。如有侵犯,请联系并删除。

tensorflow高分教程:https://github.com/osforscience/TensorFlow-Course

Bagging,Boosting二者之间的区别?:https://zhuanlan.zhihu.com/p/36848643

GBDT 和 XGBOOST 的区别有哪些?:https://www.zhihu.com/question/41354392/answer/98658997

Dropout解决过拟合问题:https://zhuanlan.zhihu.com/p/23178423

正则化方法:L1和L2 regularization、数据集扩增、dropout:

http://wepon.me/2015/03/14/%E6%AD%A3%E5%88%99%E5%8C%96%E6%96%B9%E6%B3%95%EF%BC%9AL1%E5%92%8CL2%20regularization%E3%80%81%E6%95%B0%E6%8D%AE%E9%9B%86%E6%89%A9%E5%A2%9E%E3%80%81dropout/

xgboost入门与实战(原理篇):https://blog.csdn.net/sb19931201/article/details/52557382

Newton Boosting Tree 算法原理:详解 XGBoost:https://zhuanlan.zhihu.com/p/38297689

CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1000

Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数。:https://www.julyedu.com/question/big/kp_id/26/ques_id/1032

为什么引入非线性激励函数?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1040

请问人工神经网络中为什么ReLu要好过于tanh和sigmoid function?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1044

可以采用ReLU激活函数有效的解决梯度消失的情况,也可以用Batch Normalization解决这个问题:https://blog.csdn.net/happynear/article/details/44238541

请简述神经网络的发展史:https://www.julyedu.com/question/big/kp_id/26/ques_id/1362

神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1551

简单说说CNN常用的几个模型:https://www.julyedu.com/question/big/kp_id/26/ques_id/1554

CNN笔记:通俗理解卷积神经网络:https://blog.csdn.net/v_july_v/article/details/51812459

请简述应当从哪些方向上思考和解决深度学习中出现的的over fitting问题?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2115

请简单解释下目标检测中的这个IOU评价函数(intersection-over-union):https://www.julyedu.com/question/big/kp_id/26/ques_id/2138

什么是边框回归Bounding-Box regression,以及为什么要做、怎么做https://www.julyedu.com/question/big/kp_id/26/ques_id/2139

什么是非极大值抑制(NMS)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2141

什么是深度学习中的anchor?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2143

神经网络中会用到批量梯度下降(BGD)吗?为什么用随机梯度下降(SGD)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2588

支持向量机通俗导论(理解SVM的三层境界):https://blog.csdn.net/v_july_v/article/details/7624837

[论文阅读]Facebook发表的文本检测和文本识别算法:https://zhuanlan.zhihu.com/p/44013456

残差网络ResNet笔记:

GAN学习指南:从原理入门到制作生成Demo:https://zhuanlan.zhihu.com/p/24767059

GAN实例:https://github.com/jiqizhixin/ML-Tutorial-Experiment

从编程实现角度学习Faster R-CNN(附极简实现):https://zhuanlan.zhihu.com/p/32404424

卷积神经网络系列之softmax,softmax loss和cross entropy的讲解:https://blog.csdn.net/u014380165/article/details/77284921

Faster R-CNN:https://zhuanlan.zhihu.com/p/24916624

有三说GANs(上):https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649029396&idx=1&sn=2d92874e0b94dd2174d216ce1da4f1ce&chksm=87134569b064cc7f5f2476fdc87df968b353c2eae24f6820a5af2ee983ca49be55d34588c19e&scene=21#wechat_redirect

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值