![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
吴恩达机器学习
Yakuho
网络爬虫、深度学习、古灵精怪的需求 :)
展开
-
【吴恩达机器学习】(矩阵的巧妙运算)
巧妙之处通过矩阵运算,在代码编程的时候,不需要for循环慢慢遍历,只需要很少的代码量即可得到需要的多个解。向量相乘[m, n]×[n, 1] = [m, 1][m, n]输入的预测值。例如上图所示的线性回归方程hθ有两个输入,两个输入都是带权重的,因为-40是常量,所以仅需要把遍历定义为1,第二个变量设置为需要预测的x值,就可以快速的得出答案。[n, 1]hθ的方程组的各个权重。...原创 2019-09-15 22:17:45 · 223 阅读 · 0 评论 -
【吴恩达机器学习】(梯度下降算法的理解和监督学习、无监督学习的简单定义)
θ0指的是特解a, θ1指的是斜率k, α指的是学习率(machine learning rate)。θ0通过不停的迭代,找到偏导数的最小值。上次的θ0-学习率再对hθ求偏导数得到新的θ0,θ1同理。J cost function运行起来的可视化.J(θ0, θ1) 回归函数θ0指的是特解a, θ1指的是斜率k。hθ(x)表示这个函数的直线, 通过梯度下降算法,找到导数最小点,拿到最...原创 2019-09-15 22:36:38 · 376 阅读 · 0 评论