机器学习-回归

线性回归:
 1.模型函数和损失函数。表达式有代数形式和矩阵形式
 2.线性回归的算法-求损失函数最小化时候的θ参数
  2.1.梯度下降法
   2.1.1.批量梯度下降法(BGD)
   2.1.2.随机梯度下降法(SGD)
   2.1.3.小批量梯度下降法(MBGD)
  2.2.最小二乘法
  2.3.牛顿法(newton-cg)与拟牛顿法(lbfgs)
 3.线性回归的正则化
  3.1.L2正则化-岭回归
  3.2.L1正则化-Lasso回归
   3.2.1.坐标轴下降法求解Lasso回归
   3.2.2.最小角回归法求解Lasso回归
    3.2.2.1.前向选择算法
    3.2.2.2.前向梯度算法
    3.3.3.2.最小角回归算法
  3.3.L1和L2混合正则化-弹性网络
 4.局部加权回归


逻辑回归:
 1.二元逻辑回归的模型
 2.二元逻辑回归的损失函数
 3.损失函数的优化方法
  3.1.梯度下降法
  3.2.坐标轴下降法(liblinear)
  3.3.牛顿法(newton-cg)与拟牛顿法(lbfgs)
 4.二元逻辑回归的正则化
  4.1.L1正则化损失函数的优化方法常用的有坐标轴下降法和最小角回归法。
  4.2.L2正则化损失函数的优化方法和普通的逻辑回归类似。
 5.二元逻辑回归的推广:多元逻辑回归
  5.1.One-vs-Reset(OvR)

  5.2.Many-vs-Many(MvM)


Scikit-learn 线性回归算法库:

1.LinearRegression
2. Ridge
3. RidgeCV
4. Lasso
5. LassoCV
6. LassoLars
7. LassoLarsCV
8. LassoLarsIC
9. ElasticNet
10. ElasticNetCV
11. OrthogonalMatchingPursuit
12. OrthogonalMatchingPursuitCV
13. MultiTaskLasso
14.  MultiTaskLassoCV
15.  MultiTaskElasticNet
16.  MultiTaskElasticNetCV
17. BayesianRidge
18. ARDRegression

  

逻辑回归算法库:
1.LogisticRegression
2.LogisticRegressionCV

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值