![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
给面试官讲机器学习
本堂町小春
这个作者很懒,什么都没留下…
展开
-
给面试官讲知识蒸馏
知识蒸馏目的:模型网络复杂度比较高时,不利于上线,为了使得简单的模型能够有一个较高的复杂度,可以预先训练一个复杂度较高的Teacher Network,然后用Teacher Network去教一个复杂度较低的Student Network,使得Student Network也有一个不错的效果,然后用Student Network 去上线。推荐:推荐大家看一下B站的一个短视频,这个up主比较...原创 2020-03-18 00:26:49 · 812 阅读 · 0 评论 -
给面试官讲特征选择
特征选择1. 意义降维,减少计算量特征优选,降低模型复杂度,符合“奥卡姆剃刀”原理2. 方法去除变化较小的特征方差选择法:选择方差较大的特征PCA降维,同时可以去特征间耦合皮尔逊相关度:选取互相独立的标签根据可分性判据:类内类间距离、概率分布、信息熵等,每次单独计算各个特征的可分性判据,选前m个互信息系数L1正则化,Lasso回归树模型,根据平均不纯度减少值划分,算出...原创 2020-03-14 23:14:18 · 141 阅读 · 0 评论 -
给面试官讲类别不平衡问题
如何处理类别不平衡问题?前言:对于样本不均衡问题,要理性的看待,不能抱着必须均衡才能训练的想法,例如在文本分类问题中,不均衡问题比比皆是,如果某项任务在真实世界中的存在比例就是不均衡的,那么无需处理也能有合适的结果;如果一个或多个batch中都是同一类样本,这时候就需要采取一些措施了。进入主题:对小样本上采样,上采样可以用人工方法合成,例如SMOTE算法、例如针对图像的图像增强,最有效...原创 2020-03-14 22:38:02 · 246 阅读 · 0 评论 -
给面试官讲逻辑回归
逻辑回归文章目录逻辑回归一、口述一下逻辑回归二、推导一下逻辑回归三、代码实现逻辑回归四、常见问题(面经)整理一、口述一下逻辑回归 逻辑回归是用来解决二分类问题的。它假设数据服从二项分布(伯努利分布),通过极大似然估计,结合梯度下降算法求得最优参数,从而实现分类的目的。 &nb...原创 2020-03-12 23:38:11 · 213 阅读 · 0 评论