![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习算法/深度学习
文章平均质量分 53
普通网友
这个作者很懒,什么都没留下…
展开
-
xgboost 与 GBDT算法
GBDTxgboostxgboost on yarn原创 2016-07-21 15:18:51 · 317 阅读 · 0 评论 -
决策树和随机森林
# -*- coding: utf-8 -*-"""Created on Wed Jul 20 12:49:48 2016@author: vincent"""#!/usr/bin/pythonfrom sklearn.feature_extraction import DictVectorizerimport csvfrom sklearn import treefrom s原创 2016-07-20 15:09:10 · 745 阅读 · 0 评论 -
最大熵模型
最大熵模型:原创 2016-05-15 17:45:30 · 167 阅读 · 0 评论 -
线性回归与逻辑回归
参考:讲义和视频http://www.cnblogs.com/fanyabo/p/4060498.html个人只是将思路整理一下。线性回归:1)损失函数:2)解释:(概率解释:)对上面的式子求“极大自然估计:”解法:批处理梯度下降:随机梯度下降:最小二乘法:局部的线性回归原创 2016-05-15 17:08:57 · 213 阅读 · 0 评论 -
KNN(K近邻算法)的学习
K近邻算法简单、直观:给定一个训练数据集,对于新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某一个类,就将该实例分为这个类。算法: 输入:(1)训练数据集 T={ (x1,y1) ,(x2,y2),....() }原创 2015-06-23 21:56:20 · 286 阅读 · 0 评论