![](https://img-blog.csdnimg.cn/20190918140053667.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习
文章平均质量分 61
机器学习的学习笔记
阿巴乾
人工智能机器学习
展开
-
机器学习中的偏差与方差
首先,区一下偏差与方差。其实偏差与方差都是误差,是衡量模型预测好坏的评判标准,误差 = 方差 + 偏差。先看一张经典的靶心图:图中红色靶心为数据的实际值或真实值,蓝色点集为估计值或预测值。值得注意的是,所有蓝点的输入样本都是一样的,那么为什么会得出不同的预测值呢?因为这里代表的是:我们使用了不同的训练集(从所有样本中选出不同的训练集)进行训练,得出了不同的模型参数,即不同的训练模型,然后将同一个样本分别输入这些模型之中,得到了蓝色点集预测值。因此引出偏差与方差的机器学习定义:偏差:描述的原创 2022-04-19 16:23:58 · 1789 阅读 · 0 评论 -
conda创建新环境
在下载好conda之后,要发挥出conda管理环境较为方便的优势,避免环境错乱。特此写个文章来帮助自己记忆,大家也可参考。以我要创建一个py3.9版本为例。1、新建一个新的虚拟环境conda create -n py39 python=3.9新建完成:2、进入base环境activate进入完成:3、进入刚刚创建的环境conda activate py39进入完成:4、然后进行所需要库的下载即可。......原创 2022-04-13 16:03:07 · 25378 阅读 · 0 评论 -
Python Codeing Tips(更新中)
数据处理一行代码替换空值和非空值b['label'] = b['text_a'].isna().map({True:0, False:1})原创 2021-10-03 14:26:12 · 93 阅读 · 0 评论 -
sklearn机器学习模型代码汇总
以下模型代码均用于二分类机器学习之中。相关参数可以在sklearn官网查询:sklearn官网一、逻辑回归模型from sklearn.linear_model import LogisticRegressionfrom sklearn.preprocessing import StandardScalerstdScaler = StandardScaler()X = stdScaler.fit_transform(train)# Split the data into a tra原创 2021-07-16 13:27:22 · 1675 阅读 · 0 评论 -
LightGBM
简介LightGBM(Light Gradient Boosting Machine)是一款常用的GBDT(Gradient Boosting Decision Tree)工具包,由微软亚洲研究院开发,速度比XGBoost快,精度也还可以。它的设计理念是:单个机器在不牺牲速度的情况下,尽可能使用上更多的数据。 多级并行的时候,通信的代价尽可能的低,并且在计算上可以做到线性加速。所以其使用分布式的GBDT,选择了机遇直方图的决策树算法。LightGBM是一个实现GBDT算法的框架,支持高效率的并行原创 2021-07-15 23:51:58 · 1089 阅读 · 2 评论 -
XGboost
XGBoost简介XGBoost是GBDT(梯度下降树,Gradient Boosting Decision Tree)的一种,也是加法模型和前向优化算法。在监督学习中,可以分为:模型、参数、目标函数、学习方法。模型:给定输入x后预测输出y的方法,比如说回归,分类,排序等。 参数:模型中的参数,比如线性回归中的权重和偏置。 目标函数:即损失函数,包含正则化项。 学习方法:给定目标函数后求解模型和参数的方法,比如:梯度下降法,数学推导等等。一般都是使用梯度下降的方法。从这四个方面来构建XGBo原创 2021-07-15 17:11:49 · 585 阅读 · 0 评论