自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (1)
  • 收藏
  • 关注

原创 机器学习面试题之——LR问题集合

一、LR为什么是线性模型Logistic Regression从几率的概念构建线性回归模型。一个事件发生的几率(odds)为该事件发生的概率与不发生概率的比值,几率的取值范围为[0,+∞),其对数的取值范围为实数域,所以,可以将对数几率作为因变量构建线性回归模型:   由此可得,即P(y=1|x,w)=p,这便是Logistic Regression采用sigmoid函数的原因,sigmo...

2018-07-30 20:07:20 7998 3

转载 机器学习面试题之——简要介绍超参数搜索

转发:https://blog.csdn.net/zhangbaoanhadoop/article/details/79559025本篇文章主要介绍在sklearn中采用GridSearchCV和RandomizedSearchCV进行超参数选择。一、超参数介绍: 1,超参数:在模型训练中,有些参数不能通过对数据进行学习得到,这种参数叫做超参数。比如,神经网络的层数,每层的神经元数量等。...

2018-07-29 16:29:28 1573

原创 机器学习面试题之——BatchNorm

一、背景知识1、机器学习领域有个重要假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。而BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布。2、Covariate Shift 指训练数据和测试数据存在分布的差异性。这会给网络的泛化性和训练速度带来了影响,我们经常使用的方法...

2018-07-28 16:06:09 2531

原创 机器学习面试题之——简单介绍最小二乘

1、常用到的最小二乘场合:最小二乘法直线拟合,最小二乘法多项式(曲线)拟合,机器学习中线性回归的最小二乘法,系统辨识中的最小二乘辨识法,参数估计中的最小二乘法,等等。2、为什么用最小二乘:相比于绝对值的方法,平方和的方法可以得到更短的距离,使得拟合函数更接近于目标函数。从范数的角度考虑这个问题,绝对值对应的是1范数,最小二乘对应的就是2范数。3、和梯度下降法比较相同点:都是在已知数据的...

2018-07-26 11:35:38 2188

原创 机器学习面试题之——简单总结常见排序算法

思想+时间复杂度+空间复杂度1、冒泡排序:依次比较和交换相邻的两个数从而把小的数排在前面     时间复杂度:平均,最坏,最好(数据有序的情况下:设置一个标志位,若第一趟交换完成后,没有数据改变位置,则结束后面的交换)。空间复杂度:,稳定2、选择排序:可看成冒泡排序的优化算法,但只有在确定了是最小数的前提下才交换,所以和1比,大大减少了交换次数     时间复杂度:平均,最坏,最好...

2018-07-25 16:45:19 388

原创 机器学习面试题之——简单解释正则化为什么能减小模型复杂度

理论上,从VC维的角度可以解释,正则化能直接减少模型复杂度。(公式理论略)直观上,对L1正则化来说,求导后,多了一项η * λ * sgn(w)/n,在w更新的过程中:当w为正时,新的w减小,当w为负时,新的w增大,意味着新的w不断向0靠近,即减小了模型复杂度。(PS:也是为什么L1能得到稀疏解的一个参考答案)对L2正则化来说,一方面,w的更新过程为:若没有L2,则w前面的...

2018-07-25 15:09:08 2000

自然语言理解-宗成庆

自然语言理解课件,NLP入门必备。包括语义计算,句法分析等等热门研究领域

2018-07-29

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除