声明:本文仅仅是作者用来为2019年春招准备,并无其他用处,本人完全尊重文中链接作者的知识产权。如有侵犯,请联系并删除。
tensorflow高分教程:https://github.com/osforscience/TensorFlow-Course
Bagging,Boosting二者之间的区别?:https://zhuanlan.zhihu.com/p/36848643
GBDT 和 XGBOOST 的区别有哪些?:https://www.zhihu.com/question/41354392/answer/98658997
Dropout解决过拟合问题:https://zhuanlan.zhihu.com/p/23178423
正则化方法:L1和L2 regularization、数据集扩增、dropout:
http://wepon.me/2015/03/14/%E6%AD%A3%E5%88%99%E5%8C%96%E6%96%B9%E6%B3%95%EF%BC%9AL1%E5%92%8CL2%20regularization%E3%80%81%E6%95%B0%E6%8D%AE%E9%9B%86%E6%89%A9%E5%A2%9E%E3%80%81dropout/
xgboost入门与实战(原理篇):https://blog.csdn.net/sb19931201/article/details/52557382
Newton Boosting Tree 算法原理:详解 XGBoost:https://zhuanlan.zhihu.com/p/38297689
CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1000
Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数。:https://www.julyedu.com/question/big/kp_id/26/ques_id/1032
为什么引入非线性激励函数?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1040
请问人工神经网络中为什么ReLu要好过于tanh和sigmoid function?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1044
可以采用ReLU激活函数有效的解决梯度消失的情况,也可以用Batch Normalization解决这个问题:https://blog.csdn.net/happynear/article/details/44238541
请简述神经网络的发展史:https://www.julyedu.com/question/big/kp_id/26/ques_id/1362
神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1551
简单说说CNN常用的几个模型:https://www.julyedu.com/question/big/kp_id/26/ques_id/1554
CNN笔记:通俗理解卷积神经网络:https://blog.csdn.net/v_july_v/article/details/51812459
请简述应当从哪些方向上思考和解决深度学习中出现的的over fitting问题?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2115
请简单解释下目标检测中的这个IOU评价函数(intersection-over-union):https://www.julyedu.com/question/big/kp_id/26/ques_id/2138
什么是边框回归Bounding-Box regression,以及为什么要做、怎么做https://www.julyedu.com/question/big/kp_id/26/ques_id/2139
什么是非极大值抑制(NMS)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2141
什么是深度学习中的anchor?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2143
神经网络中会用到批量梯度下降(BGD)吗?为什么用随机梯度下降(SGD)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2588
支持向量机通俗导论(理解SVM的三层境界):https://blog.csdn.net/v_july_v/article/details/7624837
[论文阅读]Facebook发表的文本检测和文本识别算法:https://zhuanlan.zhihu.com/p/44013456
残差网络ResNet笔记:
GAN学习指南:从原理入门到制作生成Demo:https://zhuanlan.zhihu.com/p/24767059
GAN实例:https://github.com/jiqizhixin/ML-Tutorial-Experiment
从编程实现角度学习Faster R-CNN(附极简实现):https://zhuanlan.zhihu.com/p/32404424
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解:https://blog.csdn.net/u014380165/article/details/77284921
Faster R-CNN:https://zhuanlan.zhihu.com/p/24916624
有三说GANs(上):https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649029396&idx=1&sn=2d92874e0b94dd2174d216ce1da4f1ce&chksm=87134569b064cc7f5f2476fdc87df968b353c2eae24f6820a5af2ee983ca49be55d34588c19e&scene=21#wechat_redirect