![](https://img-blog.csdnimg.cn/f43cc094b3854c6e845f369ada14351b.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
统计学习方法
通过实战来学习统计学习,比看书本更为容易理解(对于我这种数学不怎么好的人来说)
忆_恒心
计算机研究生,研究方向为人工智能中的自然语言处理
在校期间获过国家奖学金,发表过SCI一区顶刊论文,CCF-B会议论文,51CTO博客专家。
研究领域:C++,自然语言处理中的细粒度情感分析。
展开
-
统计学习复习笔记
复习的主要内容:第一章:监督学习与非监督学习第二章:贝叶斯、最小风险杯贝叶斯公式、先验概率 后验概率 得出风险数值概率密度估计 极大似然估计第三章:线性模型(基本且经典)单变量线性回归、多变量线性、逻辑回归第四章:神经网络第五章:推荐系统第六章:异常检测第七章:决策树第八章:集成学习第九章:特征选择、特征提取基础部分:建议先看一下吴恩达的机器学习入门视频!!!原创 2020-12-10 10:08:12 · 1040 阅读 · 0 评论 -
统计决策方法-贝叶斯公式介绍附上习题
目录前言:统计决策方法:习题:朋友推荐的习题:最小错误率贝叶斯决策和最小风险错误率贝叶斯决策概率密度函数的估计前言:在统计学习中,这部分是最看得云里雾里的,所以需要好好梳理一下概念,把基本的内容掌握清楚,看了很多资料,一上来就是概率统计公式推来推去,虽然我们高中学过这些,可是时间太久了,用的比较少,所以要捡起来这些知识点的难度是比较大的,因此整理了一下自己这几天复习整理的复习笔记。好了,废话不多说,直接看正文:统计决策方法:下图的这些概念需要牢记需要注意的有.原创 2020-12-10 10:06:42 · 2201 阅读 · 0 评论 -
简述集成学习中Boosting和Bagging算法的区别
看了这么多博客,感觉这一篇博客讲得比较清楚https://blog.csdn.net/u013829973/article/details/80997240以下附上转载的内容在集成学习中,主要分为bagging算法和boosting算法。我们先看看这两种方法的特点和区别。Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。Bootstraping,即自助法:它是一种有转载 2020-12-10 09:21:05 · 4259 阅读 · 0 评论 -
统计学方法&机器学习实战 (七) AdaBoost原算法
前言:当做重要决定时,大家可能都会考虑西区多个专家而不只是一个人的意见。假期血虚处理问题时又何尝不是呢?这就是原算法(meta-algorithm)背后的思路。组合结果则被成为集成方法(ensemble method)或者元算法(meta-algorithm)Bagging、Boosting二者之间的区别样本选择上:Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。 Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。原创 2020-07-20 15:12:49 · 1121 阅读 · 4 评论 -
统计学方法&机器学习实战 (五、六) 回归、支持向量机
前言:这部分知识,理论上大致比较好理解,也做了相应的笔记,虽然支持向量机有些公式未能理解透,但是由于时间有限,目前主要学会使用SKLEARN进行实现,重点工作在神经网络的学习上。这部分学习笔记整理如下:学习笔记:学习笔记 回归 支持向量机 理论知识-线性回归、逻辑回归 理论知识-SVM支持向量机 代码实现-线性回归 理论知识查缺补漏 代码实现-逻辑回归 sklearn实现SVM 说明:共有六篇读书笔记,其中代码实现是吴恩达老师的课后作业..原创 2020-07-18 16:47:44 · 305 阅读 · 0 评论 -
统计学方法&机器学习实战(三) 决策树
理论难点:实现难点以及注意事项:实现笔记截图参考资料:原创 2020-07-18 16:15:37 · 832 阅读 · 0 评论 -
统计学方法&机器学习实战(二) K近邻算法
理论知识难点:用jupyternote book 的ipynb书写笔记:实现代码笔记截图:参考资料:原创 2020-07-18 13:01:33 · 554 阅读 · 0 评论 -
统计学方法&机器学习实战(一) 机器学习基础
前言:大致看完了吴恩达老师的视频后,对于机器学习有了一定的了解,但是无监督学习部分只理解了K-Means,监督学习算是入门了可是视屏听完以及完成了笔记后,感觉这部分算法掌握的不全,故重新看书。学习的方法:照着书本上代码敲,机器学习实战、参考资料:Apache CN 的机器学习基础笔记统计学习方法-李航Jack Cui的机器学习笔记https://cuijiahua.com/blog/ml/...原创 2020-07-18 12:52:32 · 455 阅读 · 0 评论 -
统计学习方法-朴素贝叶斯(补充)
1.????k近邻法是基本且简单的分类与回归方法。????k近邻法的基本做法是:对给定的训练实例点和输入实例点,首先确定输入实例点的????k个最近邻训练实例点,然后利用这????k个训练实例点的类的多数来预测输入实例点的类。2.????k近邻模型对应于基于训练数据集对特征空间的一个划分。????k近邻法中,当训练集、距离度量、????k值及分类决策规则确定后,其结果唯一确定。3.????k近邻法三要素:距离度量、????k值的选择和分类决策规则。常用的距离度量是欧氏距离及更一般的pL距离。????原创 2020-07-18 16:23:08 · 568 阅读 · 0 评论 -
统计学习方法-理论知识学习笔记
目录前言:1 统计学习的方法概论1.1 统计学习1.1.1 统计学习特点1.1.2 统计学习的对象1.1.3 统计学习的目的1.1.4 统计学习的方法1.1.5 统计学习的研究1.1.6 统计学习的重要性1.2 监督学习1.2.1 基本概念1.3 统计学习三要素1.3.1 模型1.3.2 策略1.3.3 算法1.4 模型评估与模型选择1.4.1 训练误差与测试误差1.5 正则化与交叉验证1.5.1 正则化1.5.2 交叉验.原创 2020-07-11 17:25:45 · 1456 阅读 · 0 评论