机器学习
文章平均质量分 79
dangzhileiqaz
这个作者很懒,什么都没留下…
展开
-
K最近邻结点算法(k-Nearest Neighbor algorithm)KNN——python简单实现
K近邻:代码实现:# -*- coding: utf-8 -*-import numpy#from numpy import *import operator#函数功能:将数据文件转换为矩阵形式def FileToMartix(filename): f = open(filename) arrayLines = f.readlines()原创 2013-11-20 10:40:26 · 1330 阅读 · 0 评论 -
从K近邻算法、距离度量谈到KD树、SIFT+BBF算法
从K近邻算法、距离度量谈到KD树、SIFT+BBF算法前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树;2、神经网络;3、编程艺术第28章。你看到,blog内的文章与你于别处所见的任何都不同。于是,等啊等,等一台电脑,只好等待..”。得益于田,借了我一台电脑(借他电脑的时候,我连表示感谢,他说“能找到工作全靠你的博客,这点儿小忙转载 2013-11-07 15:57:18 · 1392 阅读 · 0 评论 -
机器学习之线性回归(Linear Regission) 、 Logistic Regission
一 问题引入 假设一个房屋销售数据如下: 由上表可以得出一个图: 图中的蓝色点,表示已经存在的数据。但是若出现一个未统计在内的数据,例如红色点,那么我们如何得知其销售价格呢?常用的解决办法是利用数学,我们根据给定的数据元素,模拟一个模型来原创 2013-12-11 19:56:02 · 754 阅读 · 0 评论 -
梯度下降法
梯度下降法是一个一阶最优化算法,通常也称为最速下降法。我之前也没有关注过这类算法。最近,听斯坦福大学的机器学习课程时,碰到了用梯度下降算法求解线性回归问题,于是看了看这类算法的思想。今天只写了一些入门级的知识。我们知道,函数的曲线如下:编程实现:c++ code[cpp] view plaincopy转载 2013-12-11 19:58:32 · 660 阅读 · 1 评论 -
机器学习之传统贝叶斯
贝叶斯原创 2013-12-25 21:42:31 · 869 阅读 · 0 评论 -
机器学习之主成分分析(PCA)
主成分分析:原创 2013-12-21 19:53:34 · 1477 阅读 · 0 评论 -
机器学习之CTR预估评价指标
一 离线、在线评价指标1.1 LogLoss对数损失熵熵的主要作用是告诉我们最优编码信息方案的理论下界(存储空间),以及度量数据的信息量的一种方式。理解了熵,我们就知道有多少信息蕴含在数据之中,现在我们就可以计算当我们用一个带参数的概率分布来近似替代原始数据分布的时候,到底损失了多少信息。交叉熵KL散度(相原创 2018-01-12 17:56:23 · 6482 阅读 · 0 评论