【深度之眼】二:算法理论汇总

本文深入探讨机器学习中的算法理论,包括分类算法如SGDClassifier、DecisionTree、朴素贝叶斯、逻辑回归和支持向量机。详细介绍了逻辑回归的梯度上升和交叉熵,SVM的线性与非线性模型,以及集成学习中的Bagging、Boosting和AdaBoost。同时,文章涵盖了回归问题,如线性回归和树回归。在无监督学习部分,讲解了k-means聚类和二分k-means的优势与不足。最后,讨论了PCA降维和SVD奇异值分解的应用。
摘要由CSDN通过智能技术生成

版权声明:本文为博主原创文章,未经博主允许不得转载。



一、分类

1 SGDClassifier

2 DecisionTree

3 朴素贝叶斯

4 逻辑回归

4.1 任务详解

  • 逻辑回归(Logistic Regression)也是机器学习一个最基本也是最常用的算法模型。与线性回归不同的是:逻辑回归主要用于对样本进行分类。因此,逻辑回归的输出是离散值。对于二分类问题,通常我们令正类输出为 1,负类输出为 0。例如一个心脏病预测的问题:根据患者的年龄、血压、体重等信息,来预测患者是否会有心脏病,这就是典型的逻辑回归问题。重点是理解梯度上升算法。其实梯度上升与梯度下降原理是一样的,可以看作只是符号不同。

4.2 任务要求

  • 尝试推导并解释逻辑回归的损失函数,推导参数 w 的 b 的梯度下降公式

4.3 知识概要

4.3.1 交叉熵
4.3.2 梯度下降法

5 支持向量机

5.1 基本原理

5.2 分类

5.2.1 线性支持向量机:LSVM
5.2.2 对偶支持向量机:DSVM
5.2.3 软间隔支持向量机
5.2.4 非线性支持向量机与核函数

5.3 思考

  • 为了防止 SVM 出现过拟合,应该对参数 C 进行如何设置?
    在这里插入图片描述

5.4 SMO:序列最小优化算法

5.4.1 介绍
  • SMO:Sequential Minimal Optimization

5.5 核函数

5.5.1 任务详解
  • SVM 优化中一个特别好的地方就是,所有的运算都可以写成内积的形式。向量的内积指的是两个向量相乘,之后得到单个标量或者数值。我们可以把内积运算替换成核函数,而不必做简化处理。将内积替换成核函数的方式被称为核技巧。重点了解典型的核函数:线性核函数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

InitialHeart2021

你的鼓励是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值