逻辑回归
关于seaborn库
和matplotlib搭配使用
参数说明
- set_style()是用来设置主题的,Seaborn有五个预设好的主题: darkgrid , whitegrid , dark , white ,和 ticks 默认: darkgrid
import matplotlib.pyplot as plt
import seaborn as sns
sns.set_style(“whitegrid”)
plt.plot(np.arange(10))
plt.show() - set( )通过设置参数可以用来设置背景,调色板等,更加常用。
import seaborn as sns
import matplotlib.pyplot as plt
sns.set(style=“white”, palette=“muted”, color_codes=True) #set( )设置主题,调色板更常用
plt.plot(np.arange(10))
plt.show()
详见链接https://www.cnblogs.com/gczr/p/6767175.html
plt.annotate()函数用于标注文字。
sns.pairplot()
关于hue参数:
ow,col和hue。前两者与所得轴数有明显的对应关系;将hue变量视为沿着深度轴的第三维,其中不同的级别用不同的颜色绘制。及用颜色表示hue所代表的类别分类。
pairplot:pair是成对的意思,即是说这个用来展现变量两两之间的关系,线性、非线性、相关等等
逻辑回归 原理简介:
Logistic回归虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于两分类问题(即输出只有两种,分别代表两个类别),所以利用了Logistic函数(或称为Sigmoid函数),函数形式为:
l
o
g
i
(
z
)
=
1
1
+
e
−
z
logi(z)=\frac{1}{1+e^{-z}}
logi(z)=1+e−z1
其对应的函数图像可以表示如下:
XGBoost
严格意义上讲XGBoost并不是一种模型,而是一个可供用户轻松解决分类、回归或排序问题的软件包。它内部实现了梯度提升树(GBDT)模型,并对模型中的算法进行了诸多优化,在取得高精度的同时又保持了极快的速度,在一段时间内成为了国内外数据挖掘、机器学习领域中的大规模杀伤性武器.
XGBoost的主要优点:
简单易用。相对其他机器学习库,用户可以轻松使用XGBoost并获得相当不错的效果。
高效可扩展。在处理大规模数据集时速度快效果好,对内存等硬件资源要求不高。
鲁棒性强。相对于深度学习模型不需要精细调参便能取得接近的效果。
XGBoost内部实现提升树模型,可以自动处理缺失值。
XGBoost的主要缺点:
相对于深度学习模型无法对时空位置建模,不能很好地捕获图像、语音、文本等高维数据。
在拥有海量训练数据,并能找到合适的深度学习模型时,深度学习的精度可以遥遥领先XGBoost。
注:有关searborn库画图的一些其他操作
参考官方文档
https://www.cntofu.com/book/172/docs/16.md