机器学习
文章平均质量分 86
机器学习算法原理、推导、实例
机器爱学习时我也爱学习
这个作者很懒,什么都没留下…
展开
-
不同变量编码的方法
文章目录1 为什么需要对变量进行编码?2 数据类型有哪几类?2.1 不同数据类型举例2.1.1 连续-数值型-可排序2.1.2 离散-数值型-可排序2.1.3 离散-数值型-不可排序2.1.4 离散-非数值型-可排序2.1.5 离散-非数值型-不可排序3. 如何对不同类型的变量进行编码?3.1 连续-数值型-可排序3.2 离散-数值型-可排序3.3 离散-数值型-不可排序3.4 离散-非数值型-可排序3.5 离散-非数值型-不可排序1 为什么需要对变量进行编码?对于机器学习模型来说,预测模型只能对数值类原创 2021-09-20 18:33:50 · 939 阅读 · 0 评论 -
机器学习方法三要素理解:模型、策略、算法
文章目录1. 统计学习方法是什么?1.1 举个例子说明1.2 为什么要假设数据是独立同分布的?2. 统计学习方法的三要素:模型、策略和算法2.1 模型2.1.1 常见的回归模型:2.1.2常见的二分类(一般只能用于二分类)模型:2.1.3常见的多分类(也可用于二分类)模型:2.2 策略2.2.1 损失函数、期望风险函数、经验风险函数、结构风险函数2.2.2常见的损失函数分类任务常用损失函数回归任务常用损失函数2.3 算法3. 模型的评估与选择3.1 测试集:衡量最终模型的泛化能力3.2 验证集:模型调参,得原创 2021-09-08 16:08:47 · 5075 阅读 · 1 评论 -
记录下导入keras时的问题:tensorflow.python.eager和module ‘tensorflow.compat.v2‘ has no attribute ‘__internal__‘
1、tf版本要与keras版本对应,不然导入会出现错误import keras cannot import name ‘context’ from ‘tensorflow.python.eager’ (unknown location)具体对应版本看这tf与keras对应版本查询以及下载对应版本地址2、就算版本对应了,import keras 还是报错module ‘tensorflow.compat.v2‘ has no attribute ‘internal‘搜索了一下,用 from tens原创 2021-08-05 11:31:22 · 1764 阅读 · 0 评论 -
sklearn.linear_model.Perceptron感知机模型参数、属性解释及实操
文章目录1. sklearn.linear_model.Perceptron参数解释2. sklearn.linear_model.Perceptron属性解释3. sklearn.linear_model.Perceptron实战关于感知机算法的原理,数学推导,python手动实现可以查看本人的这篇文章1. sklearn.linear_model.Perceptron参数解释用于创建感知机模型时传递的参数。参数名称参数取值参数解释penalty默认=None,即不加惩罚项原创 2021-07-14 18:16:22 · 6876 阅读 · 6 评论 -
机器学习之决策树:原理及ID3算法手动实现,sklearn.tree.DecisionTreeClassifier参数详解
决策树简介决策树是一种基本的分类与回归方法,这里主要讨论用于分类的决策树。决策树模型是一种树形结构,在分类问题中表示基于特征对实例进行分类的过程。决策树的学习主要包括3个步骤:特征选择,决策树的生成,决策树的剪枝。决策树模型与学习决策树模型分类决策树是一种描述对实例分类的属性结构,决策树由节点和有向边组成,节点分为叶节点(leaf node)和内部节点(internal node),内部节点表示一个特征(根节点也是一个内部节点),而叶节点表示一个类。如图:对于一棵训练好的决策树,输入一个用于预测原创 2020-09-04 22:34:06 · 2364 阅读 · 0 评论 -
机器学习之朴素贝叶斯法(Naive Bayes)
1.朴素贝叶斯算法简介朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法,是一种典型的生成方法,即学习到了输入与输出的联合概率分布P(X,Y)P(X,Y)P(X,Y),通过这个联合概率布P(X,Y)P(X,Y)P(X,Y)结合P(X)P(X)P(X),就能求出在给定实例xxx下分类为某类ckc_kck的概率P(Y=ck∣X=x)=P(X=x,Y=ck)/P(X=x)P(Y=c_k|X=x)=P(X=x, Y=c_k)/P(X=x)P(Y=ck∣X=x)=P(X=x,Y=ck)/P(X=x)原创 2020-08-24 23:54:24 · 685 阅读 · 0 评论 -
k-nearest neighbor(kNN,k近邻算法)理论与实操及KNeighborsClassifier参数详解
1. k-NN算法简介k近邻法是基本且简单的分类与回归方法,利用数据集对特征向量空间进行划分,可以进行多分类。如下图:三角形与矩形分别代表两类数据,标签已知。现要对新输入的为分类点(绿色)进行分类,k-NN的做法是寻找与该绿点相邻最近的k个点(k-NN算法的k的含义,图中的距离为欧式距离),然后通过多数表决的方式把绿点划分到这k个最近点出现频数最高的类。例如如果k取3,则绿点最近的3个点中频数最高为三角形类,所以归为三角形类;若k取5,则距离绿点最近的5个点中频数最高为矩形类,所以归绿点为矩形类。1.原创 2020-08-22 22:19:18 · 7394 阅读 · 0 评论 -
感知机(perceptron):原理、python实现及sklearn.linear_model.Perceptron参数详解
机器学习之感知机(perceptron)1.感知机模型介绍感知机是一个二分类的线性分类模型,二分类是指输出YYY的分类只有两个值,取+1和-1,线性分类是指模型将训练数据集用一个线性超平面(如果特征空间XXX⊆\sube⊆RnR^nRn,那么该线性超平面就是n-1维)。感知机模型属于判别模型,即通过输入的样本直接学习到fff(xxx),而没有学习到XXX 与YYY的联合分布函数FFF(XXX,YYY)感知机模型的形式:f(x)=sign(w⋅x+b)f(x) = sign(w \centerdot原创 2020-08-19 12:23:16 · 5756 阅读 · 3 评论