Logistic回归:成本函数
为了训练参数w和b,我们需要定义一个成本函数。
概括:
y^(i)=σ(wTx(i)+b)
y
^
(
i
)
=
σ
(
w
T
x
(
i
)
+
b
)
其中
σ(z(i))=11+e−z(i)
σ
(
z
(
i
)
)
=
1
1
+
e
−
z
(
i
)
给定
{(x(1),y(1)),...(x(m),y(m))}
{
(
x
(
1
)
,
y
(
1
)
)
,
.
.
.
(
x
(
m
)
,
y
(
m
)
)
}
我们想要
y^(i)≈y(i)
y
^
(
i
)
≈
y
(
i
)
损失(误差)函数
损失函数衡量
y^(i)
y
^
(
i
)
和
y(i)
y
(
i
)
之间的差异,换句话说,损失函数计算单个训练样例的误差。
L(y^(i),y(i))=12(y^(i)−y(i))2
L
(
y
^
(
i
)
,
y
(
i
)
)
=
1
2
(
y
^
(
i
)
−
y
(
i
)
)
2
L(y^(i),y(i))=−(y(i)log(y^(i))+(1−y(i))log(1−y^(i)))
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
(
y
(
i
)
l
o
g
(
y
^
(
i
)
)
+
(
1
−
y
(
i
)
)
l
o
g
(
1
−
y
^
(
i
)
)
)
如果
y(i)=1:L(y^(i),y(i))=−(log(y^(i)))
y
(
i
)
=
1
:
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
(
l
o
g
(
y
^
(
i
)
)
)
,其中
log(y^(i))
l
o
g
(
y
^
(
i
)
)
和
y^(i)
y
^
(
i
)
应该接近1
如果
y(i)=0:L(y^(i),y(i))=−(log(1−y^(i)))
y
(
i
)
=
0
:
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
(
l
o
g
(
1
−
y
^
(
i
)
)
)
,其中,
log(1−y^(i))
l
o
g
(
1
−
y
^
(
i
)
)
和
y^(i)
y
^
(
i
)
应该接近0
成本函数
成本函数是整个训练集损失函数的平均值。我们试着去找到参数w和b使得成本函数最小化。
J(w,b)=1m∑mi=1L(y^(i),y(i))=−1m∑mi=1[(y(i))log(y^(i))+(1−y(i))log(1−y^(i))]
J
(
w
,
b
)
=
1
m
∑
i
=
1
m
L
(
y
^
(
i
)
,
y
(
i
)
)
=
−
1
m
∑
i
=
1
m
[
(
y
(
i
)
)
l
o
g
(
y
^
(
i
)
)
+
(
1
−
y
(
i
)
)
l
o
g
(
1
−
y
^
(
i
)
)
]
吴恩达之神经网络和深度学习-2.3logistic回归损失函数
最新推荐文章于 2022-06-22 21:10:46 发布