- 博客(10)
- 资源 (8)
- 收藏
- 关注
原创 KNN中的优化算法KD-tree
我们知道KNN是基于距离的一个简单分类算法,熟悉KNN的都知道,我们要不断计算两个样本点之间的距离,但是,试想一下,如果数据量特别大的时候,我们要每个都计算一下,那样计算量是非常大的,所以提出了一种优化KNN的算法-----kd-tree.实现k近邻法时,主要考虑的问题是如何对训练数据进行快速k近邻搜索。这在特征空间的维数大及训练数据容量大时尤其必要。k近邻法最简单的实现是线性扫描(穷
2017-09-26 16:55:18 7214
原创 Java和C++的OOP能力比较
我们学过Java的都应该比较清楚,Java是一门面向对象的语言,具备完全的OOP能力, 它保留了C++中的一些主要概念,包括权限修饰符,继承,虚函数等,同时去除了一些C++中容易混淆的概念。其中去掉多重继承是Java中最重要的修改之一。下图给出两种语言在OOP能力方面的异同点:多重继承:是指某个类的父类的个数多余1个,如果个数最多只有一个,则是单继承。
2017-09-26 14:59:21 698
原创 P和NP问题
背景知识:参考链接美剧《基本演绎法》(也就是美版“福尔摩斯”)第 2 季第 2 集中,两位研究 NP 问题的数学家被谋杀了,凶手是同行,因为被害者即将证明“P=NP 问题”,她为独吞成果而下了毒手。然而凶手的动机,并不是千禧年大奖难题那100万美元的奖金——解决了 P=NP 问题,就能够破译世界上所有的密码系统,这里面的利益比100万美元多多了。剧中只用了一句话来介绍 P=NP 的意义
2017-09-22 16:05:58 606
原创 Java中面向对象的三大特性
估计学过面向对象的伙伴,对面向对象的三种属性应该都知道这么个事,今天突然兴起,想总结一下,因为大学本科学的基本都还给老师了。面向对象有三大属性:封装、继承、和多态。我们接下来一个一个记录:(参考前人博客)封装:首先是抽象,把事物抽象成一个类,其次才是封装,将事物拥有的属性和动作隐藏起来,只保留特定的方法与外界联系,封装就是将属性私有化,提供公有的方法访问私有属性。
2017-09-20 19:19:51 229
原创 数据结构学习笔记一
一.线性表的顺序存储的结构代码#define MAXSIZE 20 /*存储空间初始分配量*/typedef int ElemType; /*重新定义数据类型*/typedef struct{ ElemType data[MAXSIZE]; int length; /*线性表的当前长度*/}SqList;数据元素的序号和存放它的
2017-09-12 15:47:34 398
原创 计算机网络笔记二
网络是用传输介质将孤立的主机连接到一起,使之能够互相通讯,完成数据传输功能的。计算机中的信号:数字信号和模拟信号。不管是模拟信号还是数字信号,都是由大量频率不同的正弦波信号合成的。信号理论解释为:任何一个信号都是由无数个谐波(正弦波)组成的。数学解释为:任何一个函数都可以用傅里叶级数展开为一个常数和无穷个正弦函数。y(t)=A 0 +A 1 Sinω 1 t+
2017-09-11 20:30:04 480
转载 大白话讲解EM算法
001、一个非常简单的例子假设现在有两枚硬币1和2,,随机抛掷后正面朝上概率分别为P1,P2。为了估计这两个概率,做实验,每次取一枚硬币,连掷5下,记录下结果,如下:硬币结果统计1正正反正反3正-2反2反反正正反2正-3反1正反反反反1正-4反2正反反正正3正-2反1反正正反反2正-3反可以很容易地估计出P1和P2,如下:P1 = (3+1+2)/ 15 = 0
2017-09-08 20:06:36 2386 1
原创 排列和组合区别
这是两个非常容易混淆的概念:排列:从n个不同的元素中,取r个不重复的元素,按次序排列,称为从n个中取r个的无重复排列。有话说: 要考虑到顺序的问题,就是排列问题。当 r=n时,称为全排列。 A(n,r)组合:从n个不同的元素中,取r个不重复的元素,组成一个子集,而不考虑其元素的顺序,称为从n个中取r个的无重组和。有话说:没有也不需要考虑顺序问题就是...
2017-09-05 20:24:32 15288
原创 什么是范数
什么是范数?我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。在数学上,范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。一种非严密的解释就是,对应向量范数,向量空间中的向量都
2017-09-05 19:35:30 9393
转载 神经网络中的Regularization和dropout
本文主要讲解神经网络中的正则化(Regularization)和Dropout,都是用了减小过拟合。正则化在机器学习领域中很重要。主要针对模型过拟合问题而提出来的。本文是观看麦子学院的视频整理而来。下面开始介绍。1 正则化机器学学习中的正则化相关的内容可以参见李航的书:统计学习方法。参阅者可以先了解有关的内容。正则化是用来降低overfitting(过拟合)的,减少过拟合的的其他方法有:增加训练
2017-09-04 11:07:14 1394
JDK的API参考
2017-01-16
javaEE的API
2017-01-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人