机器学习
Stupid小池
果壳研究僧/健身小白/前端开发学徒/ladygaga狂热粉
坚持写博客记录自己的学习,“Whether people show up or they don’t, you’re out
there, doing your thing, ready whenever they are.”
展开
-
【机器学习】支持向量机的公式推导
手写公式来自于《白板机器学习原创 2020-12-12 11:29:50 · 142 阅读 · 1 评论 -
【机器学习】贝叶斯分类器
关于贝叶斯公式的理解:https://blog.csdn.net/weixin_44986776/article/details/110558608 关于朴素贝叶斯分类的计算过程: http://www.ruanyifeng.com/blog/2013/12/naive_bayes_classifier.html 关于最大似然估计:从最大似然估计开始,你需要打下的机器学习基石 - 机器之心的文章 - 知乎 数学之美番外篇:平凡而又神奇的贝叶斯方法 ...原创 2020-12-12 11:17:06 · 72 阅读 · 0 评论 -
【机器学习】决策树的构造代码实现
数据集: 首先,初始化代码和数据 我们想要数组形式,这样分: 这里就不贴代码了,参考博客和《机器学习实战》书决策树的构造即可。 ????记录一些出现的错误: 加载csv数据的时候代码从网上下载的csv文件一直报错 Error tokenizing data. C error: Expected 2 fields in line 134, saw 3或者就是'utf-8' codec can't decode bytes in position 16: invalid continuation byt原创 2020-11-12 20:51:29 · 141 阅读 · 0 评论 -
【机器学习】决策树入门理论
熵 事件发生的概率越小,不确定性越大。这个特性用log函数可以很合适得表示出来,如下图所示,概率0.1的时候y的绝对值很大,0.9的时候绝对值很小。 这就引出熵的数学表达式,注意前面加了-号,这就使得概率越小,熵越大(混乱度&不确定度更高): 还有一个指标叫做基尼系数,跟熵一个意思,数学表达式如下。同样的,p越大,gini值越小: 上面的两个指标越大说明越混乱,分类效果越不好。 决策树构造 比如现在有这样的一个数据,看天气情况决定出不出去玩 但是要根据哪一个属性划分呢?这就需要分别计算熵原创 2020-11-11 15:45:42 · 296 阅读 · 0 评论 -
机器学习数据读取总结
关键词:python,数据分析,机器学习,pandas,DataFrame,数组 拿西瓜分类集数据为例: 这是csv文件: 这是DataFrame形式: data: 或print(data): 它的读取方法为: csv_path = 'lab/watermelon2.csv' data = pd.read_csv(csv_path,encoding="gbk",delimiter="\t");#读取到的是dataframe类型 data 这是数组形式: 得到它方法为: #在上面得到datafa.原创 2020-11-11 14:58:55 · 1084 阅读 · 0 评论 -
【机器学习】分类问题与逻辑回归 [鸢尾花、sklearn]
关键词:分类问题、鸢尾花、sklearn ????代码主要参考这位老哥的博客,代码写的很棒,但我感觉对新手不太友好,尤其是其中有出错的地方(第一次画样本图),很多地方第一次看没有看明白。强烈建议两边博客对照着看,并以那位老哥的博客为主,这篇文章算是一个补充。 sklearn.datasets中的鸢尾花数据集一共包含4个特征变量,1个类别变量。共有150个样本,这里存储了其萼片和花瓣的长宽,共4个属性,鸢尾植物分三类,种类分别为山鸢尾、杂色鸢尾、维吉尼亚鸢尾。 直接上代码: 1 准备 import pa原创 2020-10-28 20:48:46 · 588 阅读 · 0 评论 -
【机器学习】分类问题与逻辑回归 [理论与代码实现]
假设函数hθ: g(z)称为S型函数或逻辑函数(“Sigmoid Function,” also called the “Logistic Function”),图形如下: 这个假设函数hθ的含义是:输入x和参数θ后,y=1的概率。概率论上的数学表达式是: 损失函数: (来源于极大似然估计,稍后学) 将两个cost写在一起得到: 把这个cost表达式代入上面的Jθ,得到最终的损失函数的表达式: 梯度下降: 还记得线性回归时候用的梯度下降是: 这里使用同样的形式,把Jθ代入上面的这个式子,求偏导原创 2020-10-14 17:17:24 · 486 阅读 · 0 评论