机器学习
!
tsuiraku
博客转移:https://www.yuque.com/tsuiraku
展开
-
统计学习方法(李航) 支持向量机 附python及sklearn实现
支持向量机有监督学习分类问题VapnikVapnikVapnik线性可分支持向量机/线性支持向量机/非线性支持向量机什么是支持向量机呢?Support Vector MachineSupport\space Vector\space MachineSupport Vector Machine:支持向量机先抛出难懂的定义~可以先跳过,最后再来回顾定义:支持向量机的基本模型是定义在特征空间上的间隔最大的线性分类器。支持向量机还包括核技巧,这使得它成为实原创 2020-08-11 04:14:46 · 700 阅读 · 0 评论 -
统计学习方法(李航) 逻辑斯谛回归 附python及sklearn实现
逻辑斯谛回归有监督学习对数线性模型分类问题回忆一下线性回归模型!首先,我相信大家肯定都听过线性回归。线性回归是一种在预测模型上最简单并且最常用的统计学方法。这是一种使用直线来描述变量之间的关系。类型分为单变量和多变量的线性回归。单变量XXX的线性回归,红色点为样本点。我们可以找到一条黑色的直线使得它能够很好的拟合这些样本点。“问题是我们如何找到这条黑色直线?”最常用的的方法是最小二乘法,即我们通过减小均值平方误差和(MSE)(MSE)(MSE)的大小,即loss=Sum(原创 2020-08-11 04:03:54 · 1069 阅读 · 0 评论 -
统计学习方法(李航) 朴素贝叶斯 附python及sklearn实现
朴素贝叶斯有监督学习分类问题首先让我们回忆一下概率中的基本公式:条件概率:P(A∣B)=P(A,B)P(B)P(A|B)=\frac{P(A,B)}{P(B)}P(A∣B)=P(B)P(A,B)P(B∣A)=P(B,A)P(A)P(B|A)=\frac{P(B,A)}{P(A)}P(B∣A)=P(A)P(B,A)乘法公式:P(A,B)=P(B,A)=P(A∣B)P(B)=P(B∣A)P(A)P(A,B)=P(B,A)=P(A|B)P(B)=P(B|A)P(A)P(A,B)原创 2020-08-11 03:58:54 · 325 阅读 · 0 评论 -
统计学习方法(李航) k近邻 附python及sklearn实现
k近邻有监督学习分类问题什么是k近邻法?k−nearest neighbor,k−NNk-nearest\space neighbor,k-NNk−nearest neighbor,k−NN这里我们讨论分类问题中的knnknnknn算法相信大家都听过:“近朱者赤,近墨者黑”k近邻算法的原理类似,直观,通俗的来讲,给定一个训练数据集,对于新输入的数据,在训练集合中找到与之最近的kkk个数据样本,统计kkk个数据样本的类型,通过多数表决法则(majoroty vo原创 2020-08-11 03:57:37 · 220 阅读 · 0 评论 -
统计学习方法(李航) 感知机 附python及sklearn实现
第2章 感知机有监督学习分类问题线性分类模型感知机是什么?你是否听说过复杂的神经网络呢?感知机可以称为单层的神经网络,而多层的感知机则称为神经网络感知机是二类分类的线性分类模型,其输入为实例的特征向量TTT,输出为实例的类别yyy 即:T={(x1,y1),(x2,y2),...,(xN,yN)}T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}T={(x1,y1),(x2,y2),...,(xN,yN)}y={+1,−1}y=\{原创 2020-08-11 03:53:16 · 537 阅读 · 0 评论