自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (1)
  • 收藏
  • 关注

原创 ML 支持向量机SVM

ML 支持向量机SVM1.概述给定训练集D={(x1,y1),(x2,y2),...,(xm,ym)}D = \{ (x_1,y_1), (x_2,y_2),..., (x_m,y_m) \}D={(x1​,y1​),(x2​,y2​),...,(xm​,ym​)}, yi∈{−1,+1}y_i \in \{ -1, +1 \}yi​∈{−1,+1}, SVM的基本思想是在训练集DDD 样本空间中找到一个划分超平面 (二维即一条分割线),将不同的样本分开,如下图如图所示,存在多个超平面将训练样本

2022-01-20 21:39:35 778

原创 ML朴素贝叶斯分类器

贝叶斯分类器多摘自西瓜书1.贝叶斯决策论贝叶斯决策论 (Bayesian decision theory) 是概率框架下实施决策的基本方法。对于分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。假设有 NNN 种可能的类别标记,即 y={c1,c2,...,cN}y = \{ c_1, c_2,...,c_N \}y={c1​,c2​,...,cN​}, λij\lambda_{ij}λij​ 是将一个真实标记为 cjc_jcj​ 的样本

2021-11-11 22:13:09 1011

原创 ML k近邻学习

k近邻学习多摘自西瓜书1.概述kkk 近邻 (kkk-Nearest Neighbor, KNN) 学习是一种常用的监督学习方法,其工作机制简单:给定测试样本,基于某种距离度量找出训练集中与之最靠近的 kkk 个训练样本,然后基于这 kkk 个“邻居”的信息进行预测。通常,在分类任务中可以使用“投票法”,及选择这 kkk 个样本中出现最多的类别标记作为预测结果;在回归任务中可以使用“平均法”,即将这 kkk 个样本的实值输出标记的平均值作为预测结果;还可以基于距离远近进行加权平均或加权投票,距离越近

2021-11-07 19:19:32 120

原创 ML逻辑回归(Logistic Regression)

逻辑回归(Logistic Regression)多摘自机器学习笔记(https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes)1.概述逻辑回归(Logistic Regression)又叫对数几率回归,适合数值型的二值型输出的拟合,它是一个分类模型.2.模型线性模型无法较好的完成分类问题,因此在线性模型的基础上引入逻辑函数(Logistic function)。逻辑回归模型的假设是:hθ(x)=g(θTX)h_\theta(x) = g(

2021-11-06 17:12:25 353

原创 ML线性回归

线性回归多参考周志华老师的西瓜书以及南瓜书。1. 概述给定由ddd个属性描述的示例 x=(x1;x2;...;xd)x = (x_1;x_2;...;x_d)x=(x1​;x2​;...;xd​),其中 xix_ixi​ 是 xxx 在第 iii 个属性上的取值,线性模型试图学得一个通过属性的线性组合来进行预测的函数,即f(x)=ω1x1+ω2x2+...+ωdxd+bf(x) = \omega_1 x_1 + \omega_2 x_2 + ... + \omega_d x_d + bf(x)=

2021-11-03 22:59:43 173

2021电子科技大学分布式系统重点整理及20年回忆版试题

2021电子科技大学分布式系统重点整理及20年回忆版试题

2021-12-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除