机器学习初识
yyy32
我这辈子就怕两种人 一种是不要命的 一种是不要脸的
展开
-
机器学习 基本算法 (1(knn ,Decision Tree,random forest
把knn放进来是 knn太短了 直接加上就行了 数和森林可以参考这个 https://www.analyticsvidhya.com/blog/2016/04/complete-tutorial-tree-based-modeling-scratch-in-python/knn好邻居法 用最近的k的邻居来表示它的特征 一般用于分类 用一个距离函数 找出已知数据中距离未知事件最近的k个数据,最原创 2017-03-29 20:06:49 · 1480 阅读 · 0 评论 -
初识nlp (5(朴素贝叶斯
贝叶斯公式 p(x|y) x p(y) =p(y|x) x p(x)就是给我们算 p(x|y) 提供了更简单的思路 , 用p(y|x)来代替 在对电子邮件进行分类 a=“恭喜你中奖了···” ,判断a是否是 b“垃圾邮件” p(b|a) 可能不容易 但可以用p(a|b) 在“垃圾邮件”中 出现 a 的概率来代替 ,对垃圾邮件统计即可朴素表现:p(“恭喜你中奖了快来领取”|”垃圾原创 2017-03-29 17:24:24 · 370 阅读 · 0 评论 -
机器学习 基本算法 (2(Linear Regression ,Logistic Regression
名字都是回归 但逻辑回归不是回归 是分类Linear Regression(线性回归)就是用简单的线性方程 来拟合数据集y=∑ni=0wixi+b y =\sum_{i=0}^n w_ix_i+b 其中的 w 就是各个回归系数 w 可用平方误差来求得 ∑ni=0(yi−wixi)2=∑ni=0(yi−xTiw)2 \sum_{i=0}^n (y_i-w_ix_i)^2 = \sum_{i=0}^原创 2017-03-30 16:02:35 · 393 阅读 · 0 评论 -
机器学习 基本算法 (3(深入浅出SVM
Hard-Margin SVMLinear SVM如果说 在平面上 0的点 和 1的点 是可分的 那就能找出无数条线 来划分这个面 那怎么找到最好的线 这就是svm做的事 就是找到最不容易发生意外的线 就像这3条线 第1条就很容易发生意外 就是说 在左边的 x 这个地方 对分类要求的精度很高 可能一不小心就分错了 x o 而 svm 就是要找到 第3条线这样的线 在svm中 越不容易出原创 2017-03-30 17:40:37 · 262 阅读 · 0 评论 -
机器学习 基本算法 (4(K-means(较短
k-means一种解决聚类问题的非监督式学习算法 就是k-均值 ,对全部的n个点 用求平均值的方法 找到k个聚类点 转化成最优化问题 就是 M个聚类点 每个x都属于这M个其中的一个点中 ,求这所以点加起来的总平方距离最短对方程求导 看出来了 点的位置就是属于该点的 x的平均 (这就是 k-均值 中均值的来源) 这个算法很容易理解 1、随机找到 K个聚点 2、把所有原创 2017-03-31 20:32:04 · 250 阅读 · 0 评论 -
机器学习 基本算法 (5 (adaboost、 Gradient boost
adaboostboosting: 增强的 adaboost 适应的增强 适应的增强 就是给你好多个弱的方案,让你经过不断地适应增强 得到一个新的好方案。 就是让孩童来讨论一个问题,比如什么是太阳 一人只能说一条 那就有很多说法 太阳是圆的,发光的 等等 但每个人说法都是片面的 弱的 adaboost的所求目标 这里 我们要得个每个 弱方案的权重 和弱方案对第一个方案,给每一个原创 2017-04-01 17:12:20 · 516 阅读 · 0 评论