自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

softee的专栏

认真细致,持之以恒。

  • 博客(4)
  • 资源 (1)
  • 收藏
  • 关注

原创 斯坦福大学机器学习笔记(4)-logistic回归

概念logistic回归,是输出为0或1的布尔值的回归,或者也可以为视为介于0和1之间的实数值的一个概率。 不能用线性的方式来表示logistic回归,因为很难用线性拟合,如下图所示,就很难用直线来拟合图中的采样点。 对于logistic回归,需要用一种不同于线性表达式的函数来拟合,而且函数的取值范围介于0和1之间。这样的函数定义如下。 g(z)=11+e−zg(z)=\frac{1}{1

2016-05-27 22:47:23 1126

原创 斯坦福大学机器学习笔记(3)--梯度下降及学习速度

线性回归中的梯度下降线性回归函数的形式如下: hθ=θ0+θ1x1+θ2x2h_{\theta}=\theta_0+\theta_1x_1+\theta_2x_2。 代价函数用方差来表示,被定义为: J(θ)=12mΣmi=1(θTx(i)−y(i))2J(\theta)=\frac{1}{2m}\Sigma_{i=1}^{m}(\theta^Tx^{(i)}-y^{(i)})^2。 式子中

2016-05-25 15:50:56 1689

原创 斯坦福大学机器学习笔记(2)

梯度下降(gradient descent)梯度下降利用迭代的方法,更新θ\theta参数,以提高回归问题中拟合的准确性。其步骤如下。以某个初值来初始化θ\theta,例如θ=(0.1,0.2,0.3)T\theta=(0.1, 0.2, 0.3)^T使用J(θ)J(\theta)来表示代价函数,不断更新其中θ\theta的值来最小化J(θ)J(\theta),对于θ\theta中的每个向量元素

2016-05-22 17:29:45 791

原创 斯坦福大学机器学习笔记(1)

斯坦福大学机器学习笔记:监督学习和线性回归。

2016-05-20 23:33:05 1462

龙书英文版

龙说,编译器领域的权威之作。不过是英文版的,但是,对于搞研究的人来说,英文版应该不是问题。

2013-10-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除