machine learning_support vector machine

cost1(theta'X)

cost2(theta'X)改为线性形式

h(x)不是概率,变为1,0


y(i)=1,h(x)>1时J=0

y(i)=0,h(x)<-1时,J=0


large margin

原来的cost funtion写成CA+B的形式,C取一个很大的值,最优化时A~0


数学本质:

(sum(theta(2:end,:).^2))/m 相当于theta列向量的模的平方

theta'*X是theta和X的点积

最小化(sum(theta(2:end,:).^2))/m使theta得模尽可能小

要保证theta'*X>1或<-1,X(i)在theta上的投影就要尽量大


高斯曲线:

x1,x2,...改为f1,f2...

f是相似度,=exp(-模的平方和/2*sigma^2)

sigma越大,柱体越粗,拟合不足


怎样获得l

取x(1),x(2)。。。为i(1),l(2)分别计算


如何训练theta:

最小化cost function ,ragularition项变为theta'*m*theta

theta的个数很多时,时间会变长


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
支持向量机学习用于有序回归,是一种机器学习方法,用于处理具有有序标签值的分类问题。有序回归问题在许多实际应用中都非常常见,例如对产品评价的情感分析、用户满意度预测等。 支持向量机(Support Vector Machine,SVM)是一种二分类模型,其目标是找到一个超平面,将不同类别的样本分开,并且使得分隔间隔最大。在支持向量机学习中,核心思想是将高维特征空间映射到一个更低维的特征空间,从而将复杂的非线性问题转化为线性可分的问题。 在有序回归任务中,支持向量机学习的目标是通过训练数据集找到一个有序的分类函数,将输入样本映射到有序标签值上。为了解决有序回归问题,可以使用一种称为“比较类别”的方法,即将问题转化为将输入样本与一组比较类别进行比较的问题。 支持向量机学习在有序回归中的应用具有一些优势。首先,支持向量机可以通过引入核函数来处理非线性关系,提高对于复杂数据的建模能力。其次,支持向量机具有良好的推广能力,可以在训练数据集之外进行准确的预测。此外,支持向量机可以通过调整超参数来灵活地适应不同的任务和数据集。 总之,支持向量机学习是一种有效的方法,可以用于解决有序回归问题。它可以通过映射特征空间和引入核函数来处理非线性关系,并且具有良好的推广能力和灵活的参数调整能力。在实际应用中,我们可以基于支持向量机学习方法来开发有效的有序回归模型,提取有序标签值与输入样本之间的关系,实现准确的预测和分类。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值