机器学习
文章平均质量分 91
CVer儿
开源让世界更美好
展开
-
机器学习建模中的 Bagging 思想
我们一起了解了Bagging思想及其原理,以及基于Bagging的随机森林相关知识。转载 2024-02-21 00:29:02 · 49 阅读 · 0 评论 -
机器学习面试题总结
决策树决策树的建树过程是怎样的?决策树的建树过程可以分为两个主要步骤:特征选择和树的生成。1. 特征选择:在决策树的建树过程中,选择最佳的特征来划分数据集是非常重要的。常用的特征选择方法有信息增益(Information Gain)、增益率(Gain Ratio)、基尼系数(Gini Index)等。这些方法都是通过计算特征的不纯度或分裂后的增益来评估特征的重要性。选择具有最大增益或最小不纯度的特征作为划分标准。2. 树的生成:树的生成是一个递归的过程。通过选定的划分特征,将当前节点的数据集划分成更小的子集转载 2024-02-21 00:25:16 · 64 阅读 · 0 评论 -
面试 | 22道机器学习常见面试题目
(1) 无监督和有监督算法的区别?有监督学习:对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。这里,所有的标记(分类)是已知的。因此,训练样本的岐义性低。无监督学习:对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。这里,所有的标记(分类)是未知的。因此,训练样本的岐义性高。聚类就是典型的无监督学习。(2) SVM 的推导,特性?多分类怎么处理?SVM是最大间隔分类器,几何间隔和样本的误分次数之间存在关系,,其中从线...转载 2021-07-17 10:33:02 · 691 阅读 · 0 评论 -
svm核函数问题
核函数定义:计算两个向量在隐式映射过后的空间中的内积的函数叫做核函数 (Kernel Function)核技巧:核函数能简化映射空间中的内积运算——刚好“碰巧”的是,在我们的 SVM 里需要计算的地方数据向量总是以内积的形式出现的;给定两个向量 xi,xj 计算两个向量的内积 I= <xi,xj>通过某种非线性变化 x----> Φ(x) ,将x映射到高维空间中 ,映射之后内积变为 I’=<Φ(xi),Φ(xj)> , 此时内积如何计算呢?如果按照传统的方法 先将x原创 2020-12-21 01:08:33 · 433 阅读 · 0 评论 -
【SVM】Opencv机器学习十分类手写字训练和检测过程
1. 经典的手写字数据集2. 转化为图片png格式:# from PIL import Image# import struct# def read_image(filename):# f = open(filename,'rb')# index = 0# buf = f.read()# f.close()# magic, i...原创 2020-03-26 14:46:25 · 619 阅读 · 0 评论