机器学习
Mr成文
加油呀
展开
-
【机器学习】实验三 Parzen窗 KNN
一、理论知识非参数估计:不假定其分布符合哪种分布,而是直接用样本和待判定向量计算其条件概率。关键公式:pn(x)=(kn/n)/Vnp_n(x)=( k_n/n)/V_npn(x)=(kn/n)/Vn, Parzen方法是固定体积VnV_nVn求KnK_nKn.而KNN方法是固定要包含的样本个数,求几何体体积。估计概率密度:估计概率密度的时候,我们最终的输出结果应该是一...原创 2018-11-13 22:38:54 · 1935 阅读 · 3 评论 -
【机器学习】实验一 实验报告
一、 参数说明1、在开始贝叶斯判定前,先要设置上面几个参数。第一个是样本数据所在文件名。第二个是设置有多少个类别第三个是每个类别有多少个样本数据第三个是每个样本数据的维度设置完这些,还有一项没设置就是先验概率。先验概率在“sample.txt”文件中进行设置,具体sample.txt文件格式要求如下:2、样例文件格式说明文件开头是各个类的先验概率,有多少个类就应该有多少个先验概...原创 2018-11-12 19:47:35 · 9301 阅读 · 0 评论 -
【机器学习----实验报告】实验二 参数估计(极大似然估计)
一、理论知识极大似然估计:使得样本出现的概率达到最大的参数估计。对于正态分布来说,样本均值就是它的参数μ\muμ的极大似然估计。1/n∗∑k=1n(xk−μ)(xk−μ)T1/n*\sum_{k=1}^n(x_k - \mu)(x_k-\mu)^T1/n∗∑k=1n(xk−μ)(xk−μ)T是他的参数σ2\sigma^2σ2的极大似然估计二、实验环境linux系统c++语言...原创 2018-11-17 20:16:26 · 2389 阅读 · 0 评论 -
【机器学习】实验四 用python实现BP算法识别MNIST数据集手写数字
文章目录代码解读:一、初始化1、`np.random.randn(y, x)`2、 `zip(sizes[:-1], sizes[1:])`3、 神奇的for循环4、终于看懂了一句代码5、偏移初始化二、其他函数的简单说明代码# python3 import numpy as npimport randomimport os, structfrom array import arr...原创 2018-12-17 12:02:06 · 8700 阅读 · 18 评论 -
【机器学习】实验五 集成学习(投票方式)
文章目录一、实验内容二、理论准备三、实验环境四、实验过程五、实验结果六、实验总结一、实验内容投票方式的集成学习。用5-6个模型。使用MNIST数据集。二、理论准备图解集成学习:就是使用训练数据集训练出不同的模型,然后把同一个测试数据输给每个模型,然后根据这些模型的输出,按照少数服从多数的原则决定最终结果。-模型的选择knn:由于是懒惰学习,所以不能使用太多的训练数据集...原创 2018-12-31 19:48:36 · 4265 阅读 · 0 评论 -
【机器学习】决策树
文章目录一、 决策树模型二、如何构造决策树1、CLS(Concept Learning system)2、ID3算法三、信息量和熵一、 决策树模型决策树的中间节点的顺序代表了属性的重要性。叶子结点是分类结果。判断越快越好,树的深度尽可能小,决策结果尽可能准确决策树模型特点:例子二、如何构造决策树决策算法:CLS、ID3、C4.5、CART1、CLS(Concept Learn...原创 2019-05-30 18:08:34 · 338 阅读 · 0 评论