机器学习
Ada_Concentration
写博客有毒!!
展开
-
机器学习(二)线性回归与正则化项
这篇是接着我的前面的线性回归写的。之前说到为了抑制模型的复杂度,降低结构风险而在损失函数中引入了正则化项。一般情况下,正则化项有L1正则化项和L2正则化项。而线性回归损失函数通过引入其中的一个或者二者混合而衍生出了三种回归:岭回归、Lasso回归以及ElasticNet回归。1.岭回归(Ridge回归) 岭回归是在一般线性回归损失函数的基础上加入了L2正则化项,控制了模型的复杂度。损失函原创 2018-01-11 20:40:11 · 1050 阅读 · 0 评论 -
机器学习(一)线性回归
哇!耽搁了两天,今天来把第一篇正儿八经的机器学习的算法博客补上,其实我也是在校学生一枚,看了很多算法和别人的总结,写了很多笔记。所以现在想试着把自己之前整理过的笔记和思考之后的注意点写下来,如果有问题欢迎给我指出来哦~ 1.什么是线性回归 对于所有接触机器学习的小伙伴来说,几乎都被安利过大神吴恩达的机器学习入门视频,而课程讲的第一个机器学习算法就是线性回归。实际上,线性回归属于监原创 2018-01-09 21:10:11 · 5423 阅读 · 2 评论 -
机器学习(三)k近邻(kNN)
今天开始回头复习基础算法,emmmmm……从kNN开始~~1.kNN简介 k近邻(k-Nearest Neighbor,简称kNN)是一种监督学习算法,其工作机制是:给定测试样本,基于某种距离度量找出训练集中与其靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。 敲黑板: <1> k近邻是监督学习算法; <2&...原创 2018-07-16 15:52:29 · 621 阅读 · 0 评论 -
scikit-learn中kNN模型的使用及源码解读
1.scikit-learn中的kNN模型 scikit-learn中提供了一个KNeighborClassifier类来实现k近邻法分类模型,其原型为: sklearn.neighbors.KNighborClassifier(n_neighbors=5,weights=’uniform’,algorithm=’auto’,leaf_size=30,p=2,metric=’minkows...原创 2018-07-16 20:27:05 · 3738 阅读 · 1 评论 -
机器学习(四)逻辑回归Logistic Regression (LR)
今天写大名鼎鼎的LR,话说本宝宝认为这个算法真的是大隐隐于市的典范,简单大气,应用还广!啧啧啧~~~ 首先我们要明确的一个问题就是,虽然这个叫回归,让我们联想到了线性回归。但是,这是个分类算法,而不是回归算法!!!既可以作为二分类,也可以多分类哦~1.二元LR1.1二元LR模型 二项逻辑回归模型是如下的条件概率: P(Y=1∣x)=exp(w⋅x+b)1+exp(w...原创 2018-07-17 16:05:02 · 577 阅读 · 0 评论 -
机器学习(五)朴素贝叶斯
关于朴素贝叶斯这个算法,我个人认为是贝叶斯学派的一个代表性算法。尤其是在机器学习领域中,众多常见算法里面,贝叶斯相关的并不多。但是因为看过一部分《模式识别与机器学习》这本书,所以对贝叶斯是很感兴趣的,而且虽然频率学派更占主流,但是我觉得贝叶斯的这种思想是很值得深入学习的。 说到《模式识别与机器学习》这本书,首先最大的感受就是很难,非常理论!但是看过一些之后就会发现实际上概率论这个学科真的...原创 2018-07-18 17:06:46 · 335 阅读 · 0 评论 -
win10+Anaconda+Tensorflow(CPU版)下载及安装注意事项
之前在Ubuntu上安装过tensorflow,当时被折腾了很久才装上;这次入职给新电脑安装tensorflow,整个过程简单了很多,但是还是记录一下,同时因为参考了几个帖子,但是出现了小问题,整理一下~ 到目前为止,tensorflow的python支持版本只有3.5和3.6,所以如果下载了3.7的Anaconda需要特殊处理的,因此建议Anaconda还是安装历史版本比较方便,链接:h...原创 2019-07-16 17:04:39 · 2370 阅读 · 0 评论