机器学习
基础的机器学习(入门级)
蛋挞的挞读四声
这个作者很懒,什么都没留下…
展开
-
Svm支持向量机代码实现
import numpy as np#我们获取x和y,分别为x为特征矩阵(3, 10),有3个数据,每个数据10个特征,y为类别向量(3,),有三个数据,每个数据对应一个类别,#数据的特征和类别在x和y上的索引是对应的cat = np.array([0.5,2.4,3.2,2.4,5.5,3.5,2.2,1.4,2.0,4.0])dog = np.array([3.4,1.0,0.1,1.8,6.4,1.2,2.0,1.1,5.2,3.4])frog = np.array([3.3,2.0,原创 2021-10-04 16:00:38 · 240 阅读 · 0 评论 -
k_means聚类算法简单代码实现
import numpy as npfrom sklearn import datasets#1.导入数据,需要其所有的特征数据,target数据为计算聚类准确度def load_iris_data(): #导入数据集,结构为[data:特征,target:类别,target_name:类别对应名称] #数据量为150个数据点,每个数据点对应4维特征,和一个类别,类别为0,1,2 iris = datasets.load_iris() #将data特征传入x原创 2021-10-03 15:00:53 · 398 阅读 · 0 评论 -
KNN最邻近分类算法简单代码实现
import numpy as npimport matplotlib.pyplot as plt # 画图用import math# 这是训练集train_x = [[3.3935, 2.3312], [3.1100, 1.7815], [1.3438, 3.3686], [3.5822, 4.6791], [2.2803, 2.8669], [7.4234, 4.6965],原创 2021-10-02 15:07:26 · 100 阅读 · 0 评论 -
监督学习的基础算法
监督学习首先说说回归与分类的区别:1.回归问题的应用场景(预测的结果是连续的,例如预测明天的温度,23,24,25度)回归问题通常是用来预测一个值2.分类问题的应用场景(预测的结果是离散的,例如预测明天天气-阴,晴,雨)分类问题是用于将事物打上一个标签,通常结果为离散值。线性回归:线性回归是一种x和y之间的关系为线性关系的回归分析。y=a1x1+a2x2+by=a1x1+a2x2+b,这个叫线性关系。如果这里出现了x2x2,log(x)log(x), sin(x)sin(x)之类的,那就不是原创 2021-10-01 16:15:56 · 229 阅读 · 0 评论 -
无监督学习的基础算法
无监督学习k_means:简述:K-means算法,也称为K-平均或者K-均值,一般作为掌握聚类算法的第一个算法。这里的K为常数,需事先设定,通俗地说该算法是将没有标注的 M 个样本通过迭代的方式聚集成K个簇。在对样本进行聚集的过程往往是以样本之间的距离作为指标来划分。算法步骤:选取K个点做为初始聚集的簇心(也可选择非样本点);分别计算每个样本点到 K个簇核心的距离(这里的距离一般取欧氏距离或余弦距离),找到离该点最近的簇核心,将它归属到对应的簇;所有点都归属到簇之后, M个点就分原创 2021-10-01 16:41:13 · 316 阅读 · 0 评论 -
机器学习分类
机器学习通常分为四类监督学习无监督学习半监督学习强化学习1.监督学习:监督学习是从标记的训练数据来推断一个功能的机器学习任务。当我们已经拥有–些数据及数据对应的类标时,就可以通过这些数据训练出一个模型,再利用这个模型去预测新数据的类标,这种情况称为有监督学习。在回归问题中,我们预测的结果是连续值;而在分类问题中,我们预测的结果是离散值。常见的有监督学习算法包括线性回归、逻辑回归、K-近邻(knn)、朴素贝叶斯、决策树、随机森林、支持向量机(svm)等。2.无监督学习:在无监督学习中是原创 2021-10-01 14:53:01 · 1482 阅读 · 0 评论