Python机器学习
文章平均质量分 95
学习机器学习的基础知识
不会&编程
这个作者很懒,什么都没留下…
展开
-
方向导数和梯度
梯度下降法(Gradient Descent)是一种用于寻找函数极小值的一阶迭代优化算法,又称为最速下降(Steepest Descent)。其几何意义如下图所示:如果要求A点在紫色向量方向上的斜率(红色线圈出来的),则可用方向导数。应尽可能选择适中的学习率,过大会震荡,过小迭代次数会过多,如下所示,学习率为0.2更好。为了等一下方便理解方向导数,将上述的偏导数表示成向量形式。相当于方向导数是偏导数的线性组合。方向改变时,就产生了方向导数。时,若极限存在,则称为函数。的偏导数的几何意义同理。原创 2024-07-03 18:15:18 · 919 阅读 · 0 评论 -
Sklearn之朴素贝叶斯应用
sklearn下各种朴素贝叶斯的分类器的原理可看sklearn之各类朴素贝叶斯原理Sklearn基于数据分布以及这些分布上的概率估计的改进,为我们提供了四个朴素贝叶斯的分类器。类含义伯努利分布下的朴素贝叶斯高斯分布下的朴素贝叶斯多项式分布下的朴素贝叶斯补集朴素贝叶斯类别贝叶斯贝叶斯岭回归,在参数估计过程中使用贝叶斯回归技术来包括正则化参数贝叶斯有以下特点贝叶斯是从概率角度进行估计,不需要太多的样本量,极端情况下甚至我们可以使用1%的数据作为训练集,依然可以得到很好的拟合效果。原创 2024-06-19 23:36:11 · 841 阅读 · 0 评论 -
sklearn之各类朴素贝叶斯原理
贝叶斯的原理可以看:贝叶斯分类器详解根据这篇文章提到的原理,可知贝叶斯的核心公式是:y=argmaxckP(Y=ck)∏j=1nP(X(j)=x(j)∣Y=ck) (1)y=argmax_{c_{k}}P(Y=c_{k})\prod \limits_{j=1}^{n}P(X^{(j)}=x^{(j)}|Y=c_{k}) ~~(1)y=argmaxckP(Y=ck)j=1∏nP(X(j)=x(j)∣Y=ck) (1)”朴素贝叶斯“的多种变形算法的主要区别在于对条件概率的处理上,即:P(原创 2024-06-19 23:33:50 · 1170 阅读 · 0 评论 -
混淆矩阵-ROC曲线、召回率、精确率、准确率
混淆矩阵的主要性能指标准确率:模型正确分类的样本占总样本数的比例,准确率衡量了模型在所有样本上的整体表现精确率:模型预测为正类别的样本中实际是正类别的概率,精确率衡量了模型在预测为正类别的样本上的准确性召回率:实际为正类别的样本中,正确预测为正样本的概率,召回度衡量了在实际为正样本中正确预测为正样本的预测概率F1分数:精确率和召回率的调和平均数,F1分数衡量了精确率和召回率之间的平衡混淆矩阵和上述性能指标共同提供了对分类模型性能全面的理解,并帮助评估模型的优缺点,进而进一步优化模型机器学习,周志华。原创 2024-06-16 22:06:51 · 1143 阅读 · 0 评论 -
类别朴素贝叶斯CategoricalNB和西瓜数据集
要对下述的数据集转换成特征矩阵X和标签类别y,则需要认识两种编码。之后会有详细例子,现在先看用法。原创 2024-06-14 17:52:56 · 635 阅读 · 0 评论 -
机器学习之词袋模型
仅仅(与词在文本中出现的频率有关),类似于将所有词语装进一个袋子里,这种模型的主要目的是将文本转换为一个向量,其中向量的每个维度代表一个词,而该维度的值则表示该词在文本中出现的频率。原创 2024-05-21 01:37:29 · 951 阅读 · 0 评论 -
贝叶斯分类器详解
例子:假设事件A为明天上班,事件B为明天中彩票,其中P(A)=0.5,P(B)=0.5,则明天既上班又中彩票的概率为P(A)P(B)=0.25。联合概率指的是事件同时发生的概率,例如现在A,B两个事件同时发生的概率,记为P(A,B)、P(A∩B)、P(AB)。先验概率是基于背景常识或者历史数据的统计得出的预判概率,一般只包含一个变量,例如P(A),P(B)。:,例如,事件A是由事件B引起的,则P(A|B)是条件概率,P(B|A)是后验概率。其中一般条件概率中的A事件表示结果,B事件表示原因,即。原创 2024-05-12 16:17:45 · 973 阅读 · 1 评论