机器学习
文章平均质量分 80
kodoshinichi
这个作者很懒,什么都没留下…
展开
-
【KnowingAI知智】经典算法和模型|知识卡片|笔记合集
KnowingAI知智-机器学习/深度学习经典算法和网络的知识卡片合集原创 2021-03-17 15:14:37 · 310 阅读 · 0 评论 -
【AI数学基础|寒假集训课】Statistical Learning(1)
AI数学基础|B站公开课的随课笔记:Statistical Learning(1),主要讲述了机器学习中的pac准则,并附有一个例题辅助理解原创 2021-03-05 10:44:42 · 361 阅读 · 1 评论 -
支持向量机(SVM)的模型定义与推导
从拉格朗日乘子法、对偶条件和核技巧出发以数学推导的角度来解析SVM的原理原创 2020-09-02 12:18:01 · 1205 阅读 · 0 评论 -
PCA的理解、分析与实现
B站《机器学习白板推导系列》PCA章节笔记。掌握“一个中心,两个基本点”~原创 2020-08-29 14:40:38 · 753 阅读 · 0 评论 -
机器学习算法系列(7):朴素贝叶斯
一. 朴素贝叶斯的学习与分类1.1 贝叶斯定理1.条件概率2.全概率公式:若对事件A进行一个划分,可以将其划分成若干个Bi子集,且直到A在各个子集出现的条件概率和每个子集本身出现的概率:3.贝叶斯定理:通过结论来推知条件,可以使用条件概率的定义式推导得到。分母处的P(A)往往会代换成全概率公式1.2 特征条件独立假设特征条件独立假设是一个较强的假设,所以这样得到的贝叶斯定理称为朴素贝叶斯定理。特征条件独立假设主要是为了解决参数成指数增长过多的问题。1.朴素贝叶斯的问题描述:(多原创 2020-07-17 15:49:05 · 1101 阅读 · 0 评论 -
机器学习算法系列(6):K近邻的优化实现之KDTree
写在前面1.关于KNN的简要叙述见博文https://blog.csdn.net/kodoshinichi/article/details/106819524KNN算法的重点在于三个参数的选择:K的取值、距离度量方法以及分类决策方法2.之所以要从KNN进行优化发展成KDTree是因为需要对k维空间进行一个快速检索(优化KNN检索的开销)。3.KDTree本质上还是二叉树,表示对k维空间的一个划分,其每个节点对应于k维空间划分中的一个超矩形区域。利用KDTree优化检索的过程是因为它可以省去对大部分原创 2020-07-16 22:08:55 · 1491 阅读 · 0 评论 -
机器学习算法系列(5):聚类的概念与模型
一.聚类的简介(一)引言聚类属于无监督学习,对大量未标注的数据集,按照数据内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。给定一个有N个对象的数据集,构造数据的K个簇,K≤N,同时满足,每个簇至少包含一个对象,每一个对象属于且仅属于一个簇,将满足上述条件的K个簇称作一个合理划分。它的主要思想是对于给定的类别数目K,首先给出初始划分,通过迭代改变样本和簇的隶属关系,使得每一次改进之后的划分方案都较前一次好。(二)分类基于分层的聚类对给定的数据集进行逐层聚类原创 2020-07-09 18:00:01 · 1092 阅读 · 1 评论 -
机器学习算法系列(3):逻辑斯蒂回归
一.逻辑斯蒂回归模型(一)逻辑斯蒂分布概率分布函数和概率密度函数:设X是连续随机变量上式中,μ为位置参数,γ>0为形状参数概率密度函数和分布函数曲线逻辑斯蒂分布的概率分布函数属于逻辑斯蒂函数,其图形是一条S形曲线,且曲线以(μ,1/2)为中心对称,即满足:F(−x+μ)−1/2=−F(x−μ)+1/2F(-x+μ)-1/2=-F(x-μ)+1/2F(−x+μ)−1/2=−F(x−μ)+1/2分布函数曲线在中心附近增长得比较快,在两端增长速度较慢;形状参数γ越小,曲线在中原创 2020-06-26 17:18:03 · 2023 阅读 · 0 评论 -
机器学习算法系列(2):线性回归
机器学习算法系列(2):线性回归一.线性回归模型1.线性回归的概念与思想回归问题的概述①回归问题:是监督学习的另一个重要领域;用于预测输入变量和输出变量之间的关系,特别是当输入变量发生变化的时候,输出变量随之发生的而变化②回归模型:表示从输入变量到输出变量之间映射的函数;“线性回归”问题就是要拟合出一个从输入变量到输出变量的线性模型③问题框架:分为学习和预测两个步骤。学习系统基于给定训练集,训练数据构建一个模型(即为函数);预测系统根据学习模型和输入值确定相应的输出y。线性回归问题原创 2020-06-21 22:42:17 · 385 阅读 · 0 评论 -
机器学习算法系列(1):K近邻
机器学习算法系列(1):K近邻一.K近邻算法思想K近邻(KNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与该测试样本最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。如上图所示,红蓝色分别是给定的样本集中的不同类型的数据,同心圆线表示基于某种恰当的距离度量测量出的等距离线,绿色圆圈表示等待分类的测试样本,KNN的任务就是要解决绿色数据点的分类问题。“物以类聚,人以群分”,我们认为在空间上近邻的数据点在类型上也更加具有相似性,故我们可原创 2020-06-17 22:12:30 · 446 阅读 · 0 评论