![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 84
ctsas
这个作者很懒,什么都没留下…
展开
-
梯度下降法
梯度在二元函数的情形,设函数 f(x,y)f(x,y) 在平面区域 DD 内具有一阶连续偏导数,则对于每一点 P0(x0,y0)∈DP_0(x_0,y_0) \in D,都可以定出一个向量 fx(x0,y0)i+fy(x0,y0)jf_x(x_0,y_0)i+f_y(x_0,y_0)j 这向量称为函数 f(x,y)f(x,y) 在点P0(x0,y0)P_0(x_0,y_0) 的梯度,记为∇原创 2018-01-04 14:28:43 · 428 阅读 · 0 评论 -
Machine Learning - WEEK 1 2 3- 线性回归 、逻辑回归、梯度下降法及其优化算法、传统方法、 Octave 入门
WEEK 1、2、3本文为个人笔记,只记了重要内容,不适合新手入手线性回归样本(x(i),y(i)),i∈1,2,…,m" role="presentation" style="position: relative;">(x(i),y(i)),i∈1,2,…,m(x(i),y(i)),i∈1,2,…,m(x^{(i)},y^{(i)}),原创 2018-02-01 19:47:49 · 457 阅读 · 0 评论