- 博客(7)
- 收藏
- 关注
原创 DataWhale吃瓜第六章学习——支持向量机
目标是找到具有最大间隔的划分超平面,即最大化两个异类支持向量到超平面的距离之和。:距离超平面最近的训练样本点,这些点满足等号条件,是决定最终超平面的关键。:无需显式计算高维特征空间中的内积,而是通过低维数据计算核矩阵进行操作。:超平面由法向量 (u) 和位移项 (b) 确定,可表示为。:在样本空间中找到能将不同类别的样本分开的划分超平面。:线性核、多项式核、高斯核和Sigmoid核等。:任意点 z到超平面的距离 d可以表示为。等于 x 和 x’ 在原空间中的内积。:一个函数 k(x, x’),使得。
2024-07-07 23:27:47 1214
原创 DataWhale吃瓜第五章学习——神经网络
概念与应用:深度学习是一类复杂的多隐层神经网络模型,如深度信念网络(DBN)和卷积神经网络(CNN)。这些模型能够完成复杂的分类任务,通常应用于图像识别、语音识别等领域。
2024-07-04 21:58:53 285
原创 DataWhale吃瓜第四章学习——决策树
决策树是一种分类模型,通常用于预测基于一组属性或特征的值。它通过一系列问题将数据分割成越来越小的子集,直到每个子集都包含相似的值,即叶结点。决策树通常包括一个根结点、若干内部结点和叶结点。
2024-07-01 21:51:56 339
原创 第三章:线性模型(3)——线性判别分析
目标函数J∣ωTμ0−μ1∣ωTΣ0ωωTΣ1ωJωTΣ0ωωTΣ1ω∣ωTμ0−μ1∣其中μ0 和μ1是两类样本的中心点,Σ0 和 Σ1是两类样本的协方差矩阵。类内散度矩阵SwΣ0Σ1SwΣ0Σ1表示同一类内部样本点的离散程度。类间散度矩阵Sbμ0−μ1μ0−μ1TSbμ0−μ1μ0−μ1。
2024-06-28 23:00:00 1353
原创 DataWhale吃瓜3章学习(2)——对数几率回归
目的: 用于分类任务,特别是二分类问题。模型输出: 实值zwTxbzwTxb转换函数: 使用单位阶跃函数或其近似,常用对数几率函数。对数几率函数y11e−zy1e−z1模型表达式lny1−ywTxbln1−yywTxb单位阶跃函数与对数几率函数。
2024-06-25 22:54:21 711
原创 DataWhale吃瓜3章学习(1)
线性模型试图通过属性的线性组合来进行预测。fxw1x1w2x2⋯wdxdb其中,xx1x2xd是输入特征向量,ww1w2wd是权重向量,b是偏置项。模型一旦确定,对于任何输入x,我们可以通过计算fx来得到预测值。
2024-06-22 22:26:35 731
原创 DataWhale吃瓜1-2章学习
理解经验误差和泛化误差的区别至关重要,因为这是我们评价模型好坏的基础。为了避免这种情况的发生,我们需要关注模型的泛化误差而非仅仅依赖于训练集中的经验误差。归纳偏好体现了学习算法在选择假设时的倾向性,例如是否倾向于选择简单或者复杂的模型。每个阶段都有其代表性的成果和技术,如专家系统的研制、连接主义学习的复兴以及统计学习理论的建立等。归纳偏好是学习算法在众多等效假设中进行选择的一种“价值观”,它决定了算法在遇到新样本时的行为。: 分类错误的样本数与总数的比例,以及正确分类的比例。
2024-06-19 18:31:17 1241 3
空空如也
Windows11多任务处理无法设置在Microsoft Edge中打开多个选项卡
2024-07-25
Anaconda Prompt运行报错
2023-01-26
TA创建的收藏夹 TA关注的收藏夹
TA关注的人