人工智能_02

线性回归

回归分析:根据数据,确定两种或者两种以上的变量间相互依赖的定量关系。
函数表达式: y = f ( x 1 , x 2... x n ) y=f(x1,x2...xn) y=f(x1,x2...xn)
回归的分类:

根据变量数进行分类:一元回归、多元回归

根据函数关系进行分类:线性回归、非线性回归

梯度下降方法:

寻找极小值的一种方法。通过向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离进行迭代搜索,直到在极小值处收敛。

常用包:Scikit-Learn

Python语言中专门针对机器学习应用而发展起来的一款开源框架(算法库),可以实现数据预处理、分类、回归、降维、模型选择等常用的机器学习算法。

缺点:不支持python之外的语言,不支持深度学习和强化学习。

pip安装(使用清华镜像源)

pip install scikit-learn -i https://pypi.tuna.tsinghua.edu.cn/simple
评估模型表现
  • 均方误差(MSE)
    M S E = 1 m ∑ i = 1 m ( y i ‘ − y i ) 2 MSE=\frac{1}{m}\sum_{i=1}^{m}{(y_i^‘-y_i)^2} MSE=m1i=1m(yiyi)2

  • R方值( R 2 R^2 R2
    R 2 = 1 − ∑ i = 1 m ( y i ‘ − y i ) 2 ∑ i = 1 m ( y i − y i ‾ ) 2 = 1 − M S E 方差 R^2=1-\frac{\sum_{i=1}^{m}{(y_i^‘-y_i)^2}}{\sum_{i=1}^{m}{(y_i-\overline{y_i})^2}}=1-\frac{MSE}{方差} R2=1i=1m(yiyi)2i=1m(yiyi)2=1方差MSE

MSE 越小越好, R 2 R^2 R2分数约接近1越好。

y ‘ y^` y vs y y y 集中度越高越好(越接近直线分布)。

  • 可视化 y y y y p r e d i c t y_{predict} ypredict
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值