机器学习-线性回归

线性回归

线性回归是为了求的一个超平面S,使得这个超平面S能够将训练集的正负实例点完全正确分开。为了求的这个超平面,我们需要求的其中的参数 θ \theta θ b b b,这时需要一个学习策略,就是定义损失函数并将损失函数最小化。

hypothesis: h θ ( x ) = X θ T = b + x 1 θ 1 + x 2 θ 2 + . . . + x n θ n h_{\theta}\left( x \right)=X\theta^{T}=b+{x_{1}}{\theta_{1}}+{x_{2}}{\theta_{2}}+...+{x_{n}}{\theta_{n}} hθ(x)=XθT=b+x1θ1+x2θ2+...+xnθn

  • n n n 代表特征的数量
  • θ {\theta} θ表示参数,也就是要求的的模型,是一个n维的向量
  • X表示训练的数据集,是一个m*(n+1)维的矩阵,其中m表示样本的个数,这里的n+1表示在这个矩阵中添加了一列,位置为第一列,这一列的数据全为1
  • x ( i ) {x^{\left( i \right)}} x(i)代表第 i i i 个训练实例,是训练数据集矩阵中的第 i i i行,是一个n维的向量(vector)。
  • b表示偏置,如果偏置为0,则hypothesis函数必过原点。

损失函数: J ( θ 0 , θ 1 . . . θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J\left( {\theta_{0}},{\theta_{1}}...{\theta_{n}} \right)=\frac{1}{2m}\sum\limits_{i=1}^{m}{{{\left( h_{\theta} \left({x}^{\left( i \right)} \right)-{y}^{\left( i \right)} \right)}^{2}}} J(θ0,θ1...θn)=2m1i=1m(hθ(x(i))y(i))2

  • m表示样本的个数,也就是训练数据集的行数
  • y ( i ) {y}^{\left( i \right)} y(i)表示训练数据集中第 i i i个样本的标签
  • h θ ( x ( i ) ) h_{\theta} \left({x}^{\left( i \right)} \right) hθ(x(i))表示训练数据集中根据第 i i i个样本进行拟合得到的预测标签
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值