我们知道逻辑回归的算法:
依据逻辑函数:也称为Sigmoid函数。而线性回归中的表达式:hθ(x)=θTx,显然无法限定输出到0,1之间(即不能进行逻辑回归分类)。所以逻辑回归的函数表达式 表示为:hθ(x)=g(θTx)。这里g称为Sigmoid函数,表达式为:g(z)=1/(1+e-z),z和g(z)满足图形如下:
如何确认预测函数Sigmoid函数的θ值呢,当然是最小化代价函数,我们知道Sigmoid函数对应的代价函数为:
将上边的统一成一个代价函数
依据逻辑函数:也称为Sigmoid函数。而线性回归中的表达式:hθ(x)=θTx,显然无法限定输出到0,1之间(即不能进行逻辑回归分类)。所以逻辑回归的函数表达式 表示为:hθ(x)=g(θTx)。这里g称为Sigmoid函数,表达式为:g(z)=1/(1+e-z),z和g(z)满足图形如下:
如何确认预测函数Sigmoid函数的θ值呢,当然是最小化代价函数,我们知道Sigmoid函数对应的代价函数为:
将上边的统一成一个代价函数