- 博客(5)
- 资源 (1)
- 收藏
- 关注
原创 ML 支持向量机SVM
ML 支持向量机SVM1.概述给定训练集D={(x1,y1),(x2,y2),...,(xm,ym)}D = \{ (x_1,y_1), (x_2,y_2),..., (x_m,y_m) \}D={(x1,y1),(x2,y2),...,(xm,ym)}, yi∈{−1,+1}y_i \in \{ -1, +1 \}yi∈{−1,+1}, SVM的基本思想是在训练集DDD 样本空间中找到一个划分超平面 (二维即一条分割线),将不同的样本分开,如下图如图所示,存在多个超平面将训练样本
2022-01-20 21:39:35 796
原创 ML朴素贝叶斯分类器
贝叶斯分类器多摘自西瓜书1.贝叶斯决策论贝叶斯决策论 (Bayesian decision theory) 是概率框架下实施决策的基本方法。对于分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。假设有 NNN 种可能的类别标记,即 y={c1,c2,...,cN}y = \{ c_1, c_2,...,c_N \}y={c1,c2,...,cN}, λij\lambda_{ij}λij 是将一个真实标记为 cjc_jcj 的样本
2021-11-11 22:13:09 1041
原创 ML k近邻学习
k近邻学习多摘自西瓜书1.概述kkk 近邻 (kkk-Nearest Neighbor, KNN) 学习是一种常用的监督学习方法,其工作机制简单:给定测试样本,基于某种距离度量找出训练集中与之最靠近的 kkk 个训练样本,然后基于这 kkk 个“邻居”的信息进行预测。通常,在分类任务中可以使用“投票法”,及选择这 kkk 个样本中出现最多的类别标记作为预测结果;在回归任务中可以使用“平均法”,即将这 kkk 个样本的实值输出标记的平均值作为预测结果;还可以基于距离远近进行加权平均或加权投票,距离越近
2021-11-07 19:19:32 139
原创 ML逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression)多摘自机器学习笔记(https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes)1.概述逻辑回归(Logistic Regression)又叫对数几率回归,适合数值型的二值型输出的拟合,它是一个分类模型.2.模型线性模型无法较好的完成分类问题,因此在线性模型的基础上引入逻辑函数(Logistic function)。逻辑回归模型的假设是:hθ(x)=g(θTX)h_\theta(x) = g(
2021-11-06 17:12:25 399
原创 ML线性回归
线性回归多参考周志华老师的西瓜书以及南瓜书。1. 概述给定由ddd个属性描述的示例 x=(x1;x2;...;xd)x = (x_1;x_2;...;x_d)x=(x1;x2;...;xd),其中 xix_ixi 是 xxx 在第 iii 个属性上的取值,线性模型试图学得一个通过属性的线性组合来进行预测的函数,即f(x)=ω1x1+ω2x2+...+ωdxd+bf(x) = \omega_1 x_1 + \omega_2 x_2 + ... + \omega_d x_d + bf(x)=
2021-11-03 22:59:43 199
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人