![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
甜果果2333
这个作者很懒,什么都没留下…
展开
-
感动!有人将吴恩达的视频课程做成了文字版
整理 | 阿司匹林机器学习和深度学习如何入门?相信很多人都会推荐吴恩达的在线课程。不过,这种视频在线课程也有其弊端,就跟很多人不喜欢微信语音一样,想要在视频中查找和回顾相关的知识点并不方便。于是,以黄海广博士为首的一群机器学习爱好者发起了一个公益性质的项目(http://www.ai-start.com):吴恩达机器学习和深度学习课程的字幕翻译以及笔记整理。近日,这个项目终于接...转载 2018-07-19 15:09:07 · 216 阅读 · 0 评论 -
《统计学习方法》——第5章 决策树
第五章 决策树决策树是一种基本的分类与回归方法。可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。主要优点:模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。决策树的3个步骤:特征选择、决策树的生成和决策树的修剪。5.1 决策树模型与学习5.1...原创 2019-02-26 11:34:26 · 347 阅读 · 0 评论 -
《统计学习方法》——第6章 逻辑斯蒂回归与最大熵模型
第六章逻辑斯蒂回归与最大熵模型逻辑斯蒂回归是统计学习中的经典分类方法。最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型。逻辑斯蒂回归模型与最大熵模型都属于对数线性模型。6.1 逻辑斯蒂回归模型6.1.1 逻辑斯蒂分布x服从逻辑斯蒂分布是指满足以下分布函数和密度函数6.1.2 二项逻辑斯蒂回归模型是一种分类模型,由条件概率分布P(Y|X)表示。...原创 2019-02-26 11:36:08 · 378 阅读 · 0 评论 -
第二章 K-近邻算法(机器学习实战)
第二章 K-近邻算法一个简单的直观的K-近邻法分类算法的理解电影题材分类: 基于电影中出现的亲吻、打斗出现的次数,使用k-近邻算法自动划分电影的题材类型。K-近邻法概述k-近邻算法采用测量不同特征值之间的距离方法进行分类。工作原理:存在一个样本数据集合,样本集中每个数据都存在标签,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集...原创 2019-03-19 20:46:10 · 654 阅读 · 1 评论 -
机器学习(周志华西瓜书) 参考答案 总目录
原文:https://blog.csdn.net/icefire_tyh/article/details/52064910- 目录第一章 绪论http://blog.csdn.net/icefire_tyh/article/details/52065224第二章 模型评估与选择http://blog.csdn.net/icefire_tyh/article/details/520658...转载 2019-04-01 17:01:43 · 1748 阅读 · 0 评论 -
支持向量机通俗导论(理解SVM的三层境界)
原文链接:https://blog.csdn.net/v_JULY_v/article/details/7624837非常好的一篇理解支持向量机SVM的文章!截止2019.4.18日已经收获1063个赞。本文的PDF版:https://pan.baidu.com/s/1eQrgiOU...转载 2019-04-18 19:38:19 · 121 阅读 · 0 评论 -
最大似然估计(Maximum likelihood estimation)(通过例子理解)
似然与概率在统计学中,似然函数(likelihood function,通常简写为likelihood,似然)是一个非常重要的内容,在非正式场合似然和概率(Probability)几乎是一对同义词,但是在统计学中似然和概率却是两个不同的概念。概率是在特定环境下某件事情发生的可能性,也就是结果没有产生之前依据环境所对应的参数来预测某件事情发生的可能性,比如抛硬币,抛之前我们不知道最后是哪一面朝上...转载 2019-05-22 09:46:23 · 2096 阅读 · 0 评论 -
理解最大熵模型
目录1.什么是最大熵模型 2.相关数学知识 3.最大熵模型的定义 4.最大熵模型的学习 5.最优化算法 6.参考资料1.什么是最大熵原理例子1:假设随机变量X有5个取值{A,B,C,D,E},要估计各个值的概率P(A),P(B),…,P(E). 这些概率值满足条件P(A)+P(B)+P(C)+P(D)+P(E)=1 但是满足这个条件的概率分布有无数个。如果没有其他信息,一个...转载 2019-05-22 11:22:47 · 452 阅读 · 0 评论