- 博客(2)
- 收藏
- 关注
原创 逻辑回归
分类算法与回归算法的不同在于因变量是否是连续变量,逻辑回归可用于分类,本文的内容包括:(一)线性回归分类算法的弊端,(二)逻辑回归函数,(三)、正则化。(图片来自于斯坦福大学Andrew老师所讲得机器学习视频截图)一、 线性回归分类算法的弊端线性回归算法预测值为连续的,线性回归分类算法受到训练样本的影响,如下图: (一)对训练样本进行建模,当阈值大于等于0.5时则判断为恶性肿...
2018-02-08 00:46:59 689
原创 多变量线性回归
多变量线性回归算法思想与单变量线性回归算法思想基本一致,(1)先找到损失函数,(2)求损失函数最小化后的参数;本文还简单介绍了特征缩放,正则方程以及矩阵不可逆的情况。(备注:图片都来自andrew老师的视频课程的截图)一、损失函数多变量的线性回归的目标函数(考虑双变量): 对应的损失函数: 二、损失函数的最小化算法对训练样本构建模型也就是最小化损失函数...
2018-02-03 23:36:57 1718
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人