- logistic regression
- 逻辑回归,属于线性的分类问题,即在给的数据集中,需要找到一条直线将数据集分成两种类别。直线可以表示为 y = W X y = WX y=WX,其中, W 和 X W和X W和X都是向量,那么如何将线段映射到列别上呢,假设有一个函数,输入可以任意数据,但是输出只有两种结果,是不是就满足了需求。这种函数一般为分段函数,但是分段函数计算不方便,有一种函数可以近似的看成分段函数。即sigmoid函数 f ( x ) = 1 1 + e − x f(x) = \frac{1}{1 + e^{-x}} f(x)=1+e−x1。关于sigmoid函数的图像,可以前往我的另一篇文章查看:
https://blog.csdn.net/xzccfzy/article/details/99432448
- 假设现在有一条数据 X i X^{i} Xi,那么如果判断他的类别呢。根据上述的直线函数以及分类函数(sigmoid),我们可以得到数据 X i X^{i} Xi的两种类别的概率: P ( y = 1 ∣ W ,
- 逻辑回归,属于线性的分类问题,即在给的数据集中,需要找到一条直线将数据集分成两种类别。直线可以表示为 y = W X y = WX y=WX,其中, W 和 X W和X W和X都是向量,那么如何将线段映射到列别上呢,假设有一个函数,输入可以任意数据,但是输出只有两种结果,是不是就满足了需求。这种函数一般为分段函数,但是分段函数计算不方便,有一种函数可以近似的看成分段函数。即sigmoid函数 f ( x ) = 1 1 + e − x f(x) = \frac{1}{1 + e^{-x}} f(x)=1+e−x1。关于sigmoid函数的图像,可以前往我的另一篇文章查看:
logistic regression tensorflow实现
最新推荐文章于 2020-03-09 17:51:24 发布
本文介绍了如何使用TensorFlow进行逻辑回归的实现。逻辑回归是一种线性分类方法,通过sigmoid函数将预测值映射到两类。文章详细阐述了逻辑回归的数学原理,并提供了使用极大似然估计求解权重W的方法。此外,还提到了一个基于TensorFlow 1.12版本的实现示例和相关GitHub链接。
摘要由CSDN通过智能技术生成