机器学习
文章平均质量分 72
机器学习系入门学习笔记
NXU2023
这个作者很懒,什么都没留下…
展开
-
机器学习实战之Logistics回归实现
from math import * import numpy as np #%% "回归梯度上升优化算法" def loadDataSet(): # 文件读取 dataMat = [] labelMat = [] fr = open(r'C:\Users\xuning\PycharmProjects\machine learning\Logistics Regression\testSet.txt','r') for line in fr.readlines():原创 2020-07-17 09:24:42 · 141 阅读 · 0 评论 -
机器学习实战之贝叶斯分类器实现
""" 词表到向量的转换函数 """ def loadDataSet(): postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'], ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'], ['my', 'dalmation', 'is', 'so', 'cu原创 2020-07-15 10:36:37 · 299 阅读 · 0 评论 -
机器学习实战之决策树实现
1、算法原理及概念公式 2、决策树的构造 2.1、计算数据集的香农熵 from math import log def calcShannonEnt(dataSet): # 计算数据集的香农熵 numEntries = len(dataSet) # 数据集中实例的总数 labelCounts = {} # 字典键值记录当前类别出现的次数 for featVec in dataSet: currentLabel = featVec[-1] # 当前标签为字典原创 2020-07-11 22:43:00 · 159 阅读 · 0 评论 -
机器学习实战之KNN实现
最近入坑机器学习。买了本《机器学习实战》配合李航老师的《统计学习方法》方便尽快入门。方便记录,从博客开始,从KNN开始,下面先介绍一下KNN的原理以及思路,并给出实战中的代码搭配食用。 1、算法原理 k-近邻法是一种基本分类和回归方法,不具有显式的学习过程。k-近邻法实际上利用训练数据集对特征向量空间进行划分,并作为其分类”模型“。有三个要点:k值的选择,距离度量及分类决策规则。k-近邻算法的效率低,能耗高,kd树方法可以用来减少计算次数。 算法步骤: 输入: 训练数据集 T={(x1,y1),(x2,原创 2020-07-06 23:02:48 · 223 阅读 · 0 评论