![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 92
编程╱小白╲
这个作者很懒,什么都没留下…
展开
-
一文搞懂贝叶线性斯回归原理推导
一文搞懂贝叶线性斯回归原理推导原创 2024-05-31 17:51:58 · 520 阅读 · 0 评论 -
一文搞懂多元线性回归 | 多项式回归 | 岭回归 | Lasso回归原理推导,L1、L2正则化以及代码实现
在多元线性回归中,我们的目标是使用一组输入变量(或特征)x1,x2,...,xDx_1, x_2, ..., x_Dx1,x2,...,xD 来预测一个输出变量 yyy。对于第iii条数据,其回归方程可以表示为:yi=w0+w1xi1+w2xi2+...+wDxiD+ϵi\begin{equation}y_i = w_0 + w_1 x_{i1} + w_2 x_{i2} + ... +w_D x_{iD} + \epsilon_i\end{equation}yi=w0+w1xi1+w原创 2024-05-24 17:26:11 · 478 阅读 · 0 评论 -
逻辑回归|logistic回归原理
函数,而是使用softmax函数作为概率,对于一个数据的类别,我们使用one-of-K编码表示。在0到1之间,因此Hessian矩阵是正定的,交叉熵误差函数为二次凸函数,因此一定有最优解。从上述可以看出似然函数就是交叉熵损失函数相反数,也是二分类十分常用的损失函数。之间,我们可以通过逻辑函数(或称为sigmoid函数)将这个线性关系映射到。很遗憾我们很难从导数等于0求得一个闭式解,我们可以使用梯度下降法求解。首先我们考虑一个二分类的问题,假设我们有一个观测向量。我么可以把结果写成矩阵的形式,原创 2024-05-28 17:10:37 · 588 阅读 · 0 评论