自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 DataWhale吃瓜第六章学习——支持向量机

目标是找到具有最大间隔的划分超平面,即最大化两个异类支持向量到超平面的距离之和。:距离超平面最近的训练样本点,这些点满足等号条件,是决定最终超平面的关键。:无需显式计算高维特征空间中的内积,而是通过低维数据计算核矩阵进行操作。:超平面由法向量 (u) 和位移项 (b) 确定,可表示为。:在样本空间中找到能将不同类别的样本分开的划分超平面。:线性核、多项式核、高斯核和Sigmoid核等。:任意点 z到超平面的距离 d可以表示为。等于 x 和 x’ 在原空间中的内积。:一个函数 k(x, x’),使得。

2024-07-07 23:27:47 1214

原创 DataWhale吃瓜第五章学习——神经网络

概念与应用:深度学习是一类复杂的多隐层神经网络模型,如深度信念网络(DBN)和卷积神经网络(CNN)。这些模型能够完成复杂的分类任务,通常应用于图像识别、语音识别等领域。

2024-07-04 21:58:53 285

原创 DataWhale吃瓜第四章学习——决策树

决策树是一种分类模型,通常用于预测基于一组属性或特征的值。它通过一系列问题将数据分割成越来越小的子集,直到每个子集都包含相似的值,即叶结点。决策树通常包括一个根结点、若干内部结点和叶结点。

2024-07-01 21:51:56 339

原创 第三章:线性模型(3)——线性判别分析

目标函数J∣ωTμ0−μ1∣ωTΣ0ωωTΣ1ωJωTΣ0​ωωTΣ1​ω​∣ωTμ0​−μ1​∣​其中μ0 和μ1是两类样本的中心点,Σ0 和 Σ1是两类样本的协方差矩阵。类内散度矩阵SwΣ0Σ1Sw​Σ0​Σ1​表示同一类内部样本点的离散程度。类间散度矩阵Sbμ0−μ1μ0−μ1TSb​μ0​−μ1​μ0​−μ1​。

2024-06-28 23:00:00 1353

原创 DataWhale吃瓜3章学习(2)——对数几率回归

目的: 用于分类任务,特别是二分类问题。模型输出: 实值zwTxbzwTxb转换函数: 使用单位阶跃函数或其近似,常用对数几率函数。对数几率函数y11e−zy1e−z1​模型表达式ln⁡y1−ywTxbln1−yy​wTxb单位阶跃函数与对数几率函数。

2024-06-25 22:54:21 711

原创 DataWhale吃瓜3章学习(1)

线性模型试图通过属性的线性组合来进行预测。fxw1​x1​w2​x2​⋯wd​xd​b其中,xx1​x2​xd​是输入特征向量,ww1​w2​wd​是权重向量,b是偏置项。模型一旦确定,对于任何输入x,我们可以通过计算fx来得到预测值。

2024-06-22 22:26:35 731

原创 DataWhale吃瓜1-2章学习

理解经验误差和泛化误差的区别至关重要,因为这是我们评价模型好坏的基础。为了避免这种情况的发生,我们需要关注模型的泛化误差而非仅仅依赖于训练集中的经验误差。归纳偏好体现了学习算法在选择假设时的倾向性,例如是否倾向于选择简单或者复杂的模型。每个阶段都有其代表性的成果和技术,如专家系统的研制、连接主义学习的复兴以及统计学习理论的建立等。归纳偏好是学习算法在众多等效假设中进行选择的一种“价值观”,它决定了算法在遇到新样本时的行为。: 分类错误的样本数与总数的比例,以及正确分类的比例。

2024-06-19 18:31:17 1241 3

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除