机器学习与人工智能
讲解关于机器学习的基本知识,一些本人对机器学习基本技术的理解与应用,同时包含一些人工智能的前沿文章的转载与共享。
奋斗的小炎
设计推荐算法,接触过自然语言处理,对于人工智能领域的学习永无止境
展开
-
机器学习中特征选择的方法综述
本文摘自知乎用户文章的第三章节,源出处地址:作者:城东链接:https://www.zhihu.com/question/28641663/answer/110165221来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。当数据预处理完成后,我们需要从所有特征中选择有意义的特征,并将其输入机器学习算法和模型进行训练。通常来说,从以下两个方面考虑来选择特征:(1)特征是否...转载 2018-05-29 20:25:22 · 1647 阅读 · 0 评论 -
(通俗理解)机器学习中 L1 和 L2 正则化的直观解释
机器学习中,如果参数过多,造成模型过于复杂,容易造成过拟合(overfiting),即模型在训练样本数据上表现的很好,但在实际测试样本上表现的较差,即不具有很强的泛化能力。为了避免过拟合,最常用的一种方法是使用正则化,例如 L1 和 L2 正则化,分别对应于回归分析中的Lasso回归和Ridge回归。但是,正则化项如何得来?其背后的数学原理是什么?L1 正则化和 L2 正则化之间有何区别?本人在经...原创 2018-06-21 11:38:29 · 2416 阅读 · 1 评论 -
通俗理解简单的交叉熵损失函数
说起交叉熵损失函数「Cross Entropy Loss」,我们都不陌生,脑海中会马上浮现出它的公式:我们已经对这个交叉熵函数的形式非常熟悉,多数情况下都是直接拿来使用。那么,它是怎么来的?为什么它能表征真实样本标签和预测概率之间的差值?上面的交叉熵函数是否有其它变种?接下来我将尽可能通俗地回答上面这几个问题。(一)交叉熵损失函数的数学原理我们知道,在二分类问题模型,例如逻辑回Logistic R...原创 2018-06-21 13:42:00 · 3579 阅读 · 0 评论