- 博客(3)
- 收藏
- 关注
原创 Gradient Descent 李宏●机器学习
● Loss function最小的一组参数●计算偏微分,update参数。●virtualize parameters红色的箭头:梯度,是一个向量,也是等高线的法线方向.蓝色的梯度:update参数,就梯度*lr,取一个负号,在加上theta0得到theta1.步骤就反复地进行下去,再计算一遍梯度,得到另外一个红色的箭头,走的方向是红色箭头相反的方向。一直进行下去。算一...
2019-05-20 01:59:09 157
原创 Regression:output a scalar 一Case study(李宏毅)
-Regresstion: 机器学习要找一个function,而regression 找的function ouput 是一个scalar .应用举例:stock market forcastself - driving carRecommendationmachine learning 三个步骤:- step1:Model模型就是一组function set,以宝可梦为例,设...
2019-05-10 03:34:11 279
原创 误差:Bias 和Variance
诊断error来源两者之间的误差来于Bias和Variance.Bias的计算Variance的计算举例子:打靶!Model的复杂度对应的图像为什么复杂的Model散布会比较开?因为简单的Model受data的影响小举例:f(x) = cBias假设出f(heart)function space!误差分析误差来于Bias,应该怎么呢?...
2019-05-10 03:33:41 150
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人