![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 85
太极生两鱼
这个世界,强者为尊
展开
-
《机器学习》第6章 支持向量机
通过前面的讨论可知,我们希望样本在特征空间内线性可分,因此特征空间的好坏对支持向量机的性能至关重要.需注意的是,在不知道特征映射的形式时,我们并不知道什么样的核函数是合适的,而核函数也仅是隐式地定义了这个特征空间.于是,“核函数选择”成为支持向量机的最大变数.若核函数选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致性能不佳.缓解该问题的一个办法是允许支持向量机在一些样本上出错.为此,要引入“软间隔”(soft margin)的概念,如图6.4所示.解决方案:向高维空间映射。原创 2023-10-22 20:06:04 · 282 阅读 · 0 评论 -
《机器学习》第5章 神经网络
网络中有(d+l+1)q+l个参数需确定:输入层到隐层的d × q个权值、隐层到输出层的q × l 个权值、q个隐层神经元的阙值、l个输出层神经元的阈值.BP是一个迭代学习算法,在迭代的每一轮中采用广义的感知机学习规则对参数进行更新估计。要解决非线性可分问题,需要考虑使用多层神经元.如下图简单的两层感知机就能解决异或问题,输入层与输出层之间的一层神经元被称为隐层或隐含层,隐含层和输出层神经元都是拥有激活函数的功能神经元。神经网络中最基本的成分是神经元模型,即上述定义中的简单单元。原创 2023-10-12 12:30:40 · 1430 阅读 · 2 评论 -
《机器学习》- 第3章 线性模型
在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离最小。许多功能更为强大的非线性模型可在线性模型的基础上引入层级结构或高维映射而得。由于w直观表达了各属性在预测中的重要性,因此线性模型有很好的可解释性。基于均方误差最小化来进行模型求解的方法称为最小二乘法。原创 2023-10-09 21:41:23 · 739 阅读 · 0 评论 -
第4章 决策树
4.1 基本流程原创 2023-10-08 12:11:39 · 480 阅读 · 0 评论