![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Lightlock
岂曰无衣,与子同袍
展开
-
kNN ( 一 )
# -*- coding: utf-8 -*- """ 1. 直接用.shape可以快速读取矩阵的形状(几乘几),使用shape[0]读取矩阵第一维度的长度 print(shape(group)) print(group.shape[0]) 2. 比如 a = np.array([0,1,2]), np.tile(a,(2,1))就是把a先沿x轴(就这样称呼吧)复制1倍,即没有复制,仍...原创 2018-11-24 17:47:20 · 164 阅读 · 0 评论 -
kNN ( 二 )
# -*- coding: utf-8 -*- import numpy as np import kNN """ 函数说明:打开并解析文件,对数据进行分类: 1 代表不喜欢 2 代表魅力一般 3 代表极具魅力 Parameters: filename 文件名 Return: returnMat 特征矩阵 cl...原创 2018-11-24 17:50:40 · 177 阅读 · 0 评论 -
决策树 (一)
# -*- coding: utf-8 -*- """ 熵定义为信息的期望值。 熵:表示随机变量的不确定性。 条件熵:在一个条件下,随机变量的不确定性。 信息增益:熵 - 条件熵 在一个条件下,信息不确定性减少的程度! 如果选择一个特征后,信息增益最大(信息不确定性减少的程度最大),那么我们就选取这个特征。 """ from math import log """ 函数说明:创建测试集 Par...原创 2018-11-29 14:08:47 · 200 阅读 · 0 评论 -
决策树 (二)
# -*- coding: utf-8 -*- """ 熵定义为信息的期望值。 熵:表示随机变量的不确定性。 条件熵:在一个条件下,随机变量的不确定性。 信息增益:熵 - 条件熵 在一个条件下,信息不确定性减少的程度! 如果选择一个特征后,信息增益最大(信息不确定性减少的程度最大),那么我们就选取这个特征。 """ from math import log import operator ""...原创 2018-11-29 14:12:01 · 179 阅读 · 0 评论 -
朴素贝叶斯(一)
# -*- coding: utf-8 -*- """ 我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策. 贝叶斯:p(A|B) = p(A) * p(B|A) / p(B) 我们把P(A)称为"先验概率"(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。 P(A|B)称为"后验概率"(Posterior probabi...原创 2018-12-06 13:29:22 · 130 阅读 · 0 评论 -
朴素贝叶斯(二)
# -*- coding: utf-8 -*- """ 我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策. 我们把P(A)称为"先验概率"(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。 P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。 ...原创 2018-12-06 13:32:09 · 299 阅读 · 0 评论