自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Reservoir Sampling

382. Linked List Random Node LeetCode上的一道题 Given a singly linked list, return a random node’s value from the linked list. Each node must have the same probability of being chosen. Follow up: W

2016-08-29 09:13:19 372

原创 k-Means / bisecting k-Means

k-Meansk值由用户指定,为簇的个数随机生成k个质心cc对每个样点,选出计算距离最近的质心ii, 则样点被分配到第ii个簇对每个簇,平均簇内的所有样点的坐标,得到质心的坐标cic_i k-Means可能收敛到局部最小值bisecting k-Means

2016-08-19 08:36:55 490

原创 SVM

支持向量机模型logistic回归中,得到线性划分f(x)=ωTx+bf(x)=\omega^Tx+b, 当f(x)>0f(x)>0时,判为1,f(x)<0f(x)<0时,判为0。 SVM与logistic回归类似,但划分方式为 {ωTx+b≥1,y=1ωTx+b≤−1,y=−1\left\{ {\begin{array}{*{20}{c}}{\omega^Tx+b \ge 1,y=1}\\

2016-08-09 21:17:37 254

原创 Logistic回归

《机器学习实战》 第5章直接开始梯度下降的代码,没有搞明白。补上《机器学习》这部分的原理线性模型f(x)=ωTx+b f(x) = \omega^Tx+b 是直线方程。确定ω\omega和bb即可确定模型。线性回归线性回归通过给定数据集,确定线性模型,即确定参数ω\omega和bb最小二乘法基于均方误差最小化来确定线性模型中参数 (ω∗,b∗)=argmin(w,b)∑i=1m(f(xi)−yi

2016-08-08 16:06:29 432

原创 决策树

ID3利用信息论划分数据集 - 数据越无序,熵越大 - 对数据的划分,使得数据趋于有序,熵减小 - 不同的划分方法,划分前后熵差值不同 - 每次找出一个特征,使得对数据的划分前后,熵差值最大

2016-08-07 22:23:10 238 4

原创 k-近邻算法(k-Nearest Neighbor, kNN)

找出测试用例与训练样本之间特征空间距离最近的k个点。根据这k个点的分类,对测试用例进行分类。def classify0(inX, dataSet, labels, k): dataSetSize = dataSet.shape[0] diffMat = tile(inX, (dataSetSize, 1))-dataSet #tile重复向量来构造矩阵 sqDiffMat =

2016-08-07 22:17:00 257 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除