- 博客(3)
- 资源 (2)
- 收藏
- 关注
原创 机器学习-Logistic Regression
概述逻辑斯蒂回归名为回归,但其实解决的是分类问题,而不是回归问题.回归问题尝试预测的变量y是连续变量,Logistic Regression(LR)预测的变量是离散的,对于离散二值分类问题用线性模型预测效果不好.如下图: 直观的看,很容易看到图中有0-1两个分类,而线性模型将该训练数据从x2处划分,那么处于x1-x2的训练数据被错误划分了,所以对于此类二值分类问题,可以使用我们的逻辑斯蒂回归进
2017-11-23 23:09:05 302
原创 最优化-梯度下降法
最优化概述机器学习近年来已经获得迅速发展,而机器学习的本质就是对问题进行抽象建模,使得一个学习问题变为一个可求解的优化问题,归纳起来就是把一个学习问题转化为优化问题.我们需要寻找输入特征与标签之间的映射关系,有一条重要的原则就是使得寻找到的映射结果与原始标签之间的误差最小. 最优化算法从最基本的梯度下降法到一些启发式算法,如遗传算法(GA),差分演化算法(DE),粒子群算法(PSO)和人工蜂
2017-11-20 22:28:49 777
原创 机器学习-k近邻算法及kd树
概述 k近邻法不具有显式的学习过程,实际上是利用训练数据集对特征向量空间进行划分,并作为其分类的模型。 k值的选择, 距离度量及分类决策规则是k近邻算法的三个基本要素。简单描述为:给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最近邻的k个实例,这k个实例的多数属于某个类,就把该输入实例分为这个类。其中,当k=1时为最近邻搜索,即找到该输入实例在训练数据集中的最近实例;k>
2017-10-04 14:44:29 548
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人