![](https://img-blog.csdnimg.cn/0a89f2f17031438086097665732e85ee.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习
文章平均质量分 96
记录机器学习相关知识
虚心求知的熊
这个作者很懒,什么都没留下…
展开
-
Lesson 10.1 超参数优化与枚举网格的理论极限和随机网格搜索 RandomSearchCV
【代码】Lesson 10.1 超参数优化与枚举网格的理论极限和随机网格搜索 RandomSearchCV。原创 2023-03-31 22:10:22 · 3070 阅读 · 130 评论 -
Lesson 9.4 随机森林在巨量数据上的增量学习和 Bagging 方法 6 大面试热点问题
当森林中的树互相独立时,Var(为sigmoid函数时,Var(当森林中的树互相独立,且。) 永远小于 Var(原创 2023-03-12 10:04:21 · 1383 阅读 · 32 评论 -
Lesson 9.3 集成算法的参数空间与网格优化和使用网格搜索在随机森林上进行调参
【代码】Lesson 9.3 集成算法的参数空间与网格优化和使用网格搜索在随机森林上进行调参。原创 2023-03-11 22:31:35 · 1079 阅读 · 8 评论 -
Lesson 9.2 随机森林回归器的参数
弱分类器的结构,弱分类器的数量,弱分类器训练的数据 ,弱分类器的其他参数原创 2023-03-10 21:39:43 · 1585 阅读 · 4 评论 -
Lesson 9.1 集成学习的三大关键领域、Bagging 方法的基本思想和 RandomForestRegressor 的实现
【代码】Lesson 9.1 集成学习的三大关键领域、Bagging 方法的基本思想和 RandomForestRegressor 的实现。原创 2023-03-09 19:51:09 · 1207 阅读 · 4 评论 -
Lesson 8.3 ID3、C4.5 决策树的建模流程 & Lesson 8.4 CART 回归树的建模流程与 sklearn 参数详解
【代码】Lesson 8.3 ID3、C4.5 决策树的建模流程 & Lesson 8.4 CART 回归树的建模流程与 sklearn 参数详解。原创 2023-03-08 16:18:42 · 1467 阅读 · 8 评论 -
Lesson 8.2 CART 分类树的建模流程与 sklearn 评估器参数详解
CART 决策树的分类流程,CART 分类树的 Scikit-Learn 快速实现方法与评估器参数详解原创 2023-03-07 17:46:23 · 1243 阅读 · 4 评论 -
Lesson 8.1 决策树的核心思想与建模流程
借助逻辑回归构建决策树,决策树的分类与流派原创 2023-03-05 09:45:45 · 1754 阅读 · 36 评论 -
Lesson 7.2 Mini Batch K-Means与DBSCAN密度聚类
Mini Batch K-Means 算法原理与实现,DBSCAN 密度聚类基本原理与实践原创 2023-02-16 10:22:40 · 1415 阅读 · 34 评论 -
Lesson 7.1 无监督学习算法与 K-Means 快速聚类
聚类算法与无监督学习,K-Means 快速聚类的算法原理,K-Means 快速聚类的 sklearn 实现方法原创 2023-02-14 17:41:10 · 1906 阅读 · 18 评论 -
Lesson 6.6 多分类评估指标的 macro 和 weighted 过程 & Lesson 6.7 GridSearchCV 的进阶使用方法
多分类评估指标的 macro 和 weighted 过程,借助机器学习流构建全域参数搜索空间,优化评估指标选取,优化后建模流程原创 2023-02-12 10:50:41 · 2303 阅读 · 34 评论 -
Lesson 6.5 机器学习调参基础理论与网格搜索
机器学习调参理论基础,基于 Scikit-Learn 的网格搜索调参原创 2023-02-11 09:50:11 · 852 阅读 · 6 评论 -
Lesson 6.4 逻辑回归手动调参实验
数据准备与评估器构造,评估器训练与过拟合实验,评估器的手动调参原创 2023-02-09 03:45:00 · 1432 阅读 · 4 评论 -
Lesson 6.3 正则化与 sklearn 逻辑回归参数详解
过拟合、正则化、特征衍生与特征重要性评估,sklearn 中逻辑回归的参数解释原创 2023-02-08 16:04:58 · 1771 阅读 · 8 评论 -
Lesson 6.2 Scikit-Learn 常用功能介绍
sklearn 中的数据集读取,sklearn 中的数据集切分方法,sklearn 中的数据标准化与归一化,尝试使用逻辑回归评估器,sklearn 中的构建机器学习流,sklearn 的模型保存原创 2023-02-07 18:48:09 · 525 阅读 · 4 评论 -
Lesson 6.1 Scikit-Learn 快速入门
Scikit-Learn 的前世今生,Scikit-Learn 官网使用指南与核心功能介绍原创 2023-02-06 18:32:19 · 915 阅读 · 4 评论 -
Lesson 5.3 ROC-AUC 的计算方法、基本原理与核心特性
ROC-AUC 的计算方法、基本原理与核心特性原创 2023-02-05 17:21:02 · 1178 阅读 · 4 评论 -
Lesson 5.2 混淆矩阵与 F1-Score
混淆矩阵与 F1-Score原创 2023-02-04 21:31:43 · 2298 阅读 · 2 评论 -
Lesson 5.1 分类模型决策边界
决策边界(Decision Boundary)基本概念与用途,逻辑回归决策边界绘制与使用方法,验证逻辑回归参数和决策边界直线系数之间关系原创 2023-02-03 18:53:29 · 2227 阅读 · 0 评论 -
Lesson 4.6 逻辑回归的手动实现
逻辑回归损失函数的梯度计算表达式,创建分类数据集生成器,逻辑回归的手动实现,逻辑回归的分类性能瓶颈与算法评价原创 2023-02-01 22:35:51 · 605 阅读 · 2 评论 -
Lesson 4.5 梯度下降优化基础:数据归一化与学习率调度
数据归一化方法,梯度下降算法优化初阶原创 2023-02-01 12:44:58 · 1019 阅读 · 0 评论 -
Lesson 4.4 随机梯度下降与小批量梯度下降
损失函数理论基础,随机梯度下降(Stochastic Gradient Descent),小批量梯度下降(Mini-batch Gradient Descent)原创 2023-01-29 18:26:33 · 773 阅读 · 0 评论 -
Lesson 4.3 梯度下降(Gradient Descent)基本原理与手动实现
梯度下降基本原理与学习率,梯度下降一般建模流程与多维梯度下降,梯度下降算法评价原创 2023-01-28 18:43:23 · 819 阅读 · 0 评论 -
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数
逻辑回归参数估计基本思路,利用极大似然估计进行参数估计,熵、相对熵与交叉熵,交叉熵损失函数原创 2023-01-26 22:15:22 · 2078 阅读 · 0 评论 -
Lesson 4.1 逻辑回归模型构建与多分类学习方法
广义线性模型(Generalized liner model)的基本定义,对数几率模型与逻辑回归。逻辑回归模型输出结果与模型可解释性,多分类学习与多分类逻辑回归原创 2023-01-20 11:58:17 · 1014 阅读 · 2 评论 -
Lesson 3. 线性回归的手动实现(3.3 线性回归手动实现与模型局限 & 3.4 机器学习模型结果可信度理论与交叉验证基础)
Lesson 3.3 线性回归手动实现与模型局限 & Lesson 3.4 机器学习模型结果可信度理论与交叉验证基础原创 2023-01-18 21:32:47 · 877 阅读 · 0 评论 -
Lesson 3. 线性回归的手动实现(3.1 变量相关性基础理论 & 3.2 数据生成器与 Python 模块编写)
Lesson 3.1 变量相关性基础理论,Lesson 3.2 数据生成器与 Python 模块编写原创 2023-01-18 19:55:20 · 794 阅读 · 0 评论 -
Lesson 2. 矩阵运算基础、矩阵求导与最小二乘法
NumPy 矩阵运算基础,矩阵方程与向量求导方法,最小二乘法的推导过程及使用方法原创 2023-01-17 23:44:22 · 987 阅读 · 0 评论 -
Lesson 1. 线性回归模型的一般实现形式
简单线性回归的实现过程原创 2023-01-16 23:10:39 · 1331 阅读 · 0 评论 -
机器学习的相关概念与建模流程
机器学习的相关定义和举例:鸢尾花分类,数据与数据集的相关概念,机器学习建模的一般流程原创 2023-01-16 18:24:38 · 1532 阅读 · 0 评论 -
机器学习的相关软件框架下载安装
anaconda的下载安装和问题调试,pytorch cpu版本的下载安装,更新 anaconda,查看与更新python 版本,python 第三方库管理。原创 2023-01-16 11:27:57 · 1552 阅读 · 0 评论