![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
HappyAngel19921027
我是一个学计算机专业的IT学生对这方面很干兴趣希望能交到很多朋友一起讨论题目
展开
-
SVM与LR的区别
在大大小小的面试过程中,多次被问及这个问题:“请说一下逻辑回归(LR)和支持向量机(SVM)之间的相同点和不同点”。第一次被问到这个问题的时候,含含糊糊地说了一些,大多不在点子上,后来被问得多了,慢慢也就理解得更清楚了,所以现在整理一下,希望对以后面试机器学习方向的同学有所帮助(至少可以瞎扯几句,而不至于哑口无言ha(*^-^*))。(1)为什么将LR和SVM放在一起来进行比较? 回答这个问题转载 2017-08-20 21:48:23 · 663 阅读 · 0 评论 -
SVM参数详解
svm参数说明----------------------如果你要输出类的概率,一定要有-b参数svm-train training_set_file model_filesvm-predict test_file model_fileoutput_file自动脚本:python easy.py train_data test_data自动选择最优参数,自动转载 2017-10-11 21:52:15 · 2255 阅读 · 0 评论 -
机器学习常见模型分析与比较
朴素贝叶斯: 有以下几个地方需要注意: 1. 如果给出的特征向量长度可能不同,这是需要归一化为通长度的向量(这里以文本分类为例),比如说是句子单词的话,则长度为整个词汇量的长度,对应位置是该单词出现的次数。 2. 计算公式如下: 其中一项条件概率可以通过朴素贝叶斯条件独立展开。要注意一点就是 的计算方法,而由朴素贝叶斯的前提假设可知, = ,因转载 2017-09-03 15:43:09 · 29737 阅读 · 2 评论 -
xGBoost GBDT
作者:wepon链接:https://www.zhihu.com/question/41354392/answer/98658997来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。xgboost相比传统gbdt有何不同?xgboost为什么快?xgboost如何支持并行? 看了陈天奇大神的文章和slides,略抒己见,没有面面俱到,转载 2017-09-03 15:29:33 · 190 阅读 · 0 评论 -
PRC 和ROC
一、指标定义准确率:策略命中的所有相关订单/策略命中的所有订单 召回率:策略命中的所有相关订单/所有的相关订单(包括策略未被命中的) F1-score(F1-分数):2×准确率×召回率/(准确率+召回率),是模型准确率和召回率的一种加权平均,它的最大值是1,最小值是0。(详细介绍见下) ROC:ROC曲线的横坐标为false positive rate(FPR,假正率),纵坐标为true转载 2017-09-02 21:47:18 · 5980 阅读 · 0 评论 -
SVM防止过拟合
过拟合(Overfitting)表现为在训练数据上模型的预测很准,在未知数据上预测很差。过拟合主要是因为训练数据中的异常点,这些点严重偏离正常位置。我们知道,决定SVM最优分类超平面的恰恰是那些占少数的支持向量,如果支持向量中碰巧存在异常点,那么我们傻傻地让SVM去拟合这样的数据,最后的超平面就不是最优的。如图1所示,深红色线表示我们希望训练得到的最优分类超平面,黑色虚线表示由于过拟合得到转载 2017-08-28 22:27:37 · 4744 阅读 · 0 评论 -
SCI 图像处理 机器学习
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE SCI IF=4.378ACM TRANSACTIONS ON GRAPHICS SCI IF=3.619IEEE TRANSACTIONS ON MEDICAL IMAGING SCI IF=3.54INTERNATIONAL JOURNAL OF转载 2017-09-05 11:26:26 · 1014 阅读 · 0 评论 -
优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
本文介绍常见的一阶数值优化算法,这些方法在现代神经网络框架(tensorflow, caffe, torch)中已经是标准配置。问题设系统参数为ω。对于样本i,其代价函数为Qi(ω)。在n个样本组成的训练集上,其整体代价函数为: Q(ω)=∑i=1nQi(ω)要求ω使得上式最小,由于没有闭式解,需要通过近似迭代逐步逼近。基础一阶优化GDG转载 2017-08-26 18:39:06 · 1664 阅读 · 0 评论 -
word2vec
简介Word2vec 是 Google 在 2013 年年中开源的一款将词表征为实数值向量的高效工具, 其利用深度学习的思想,可以通过训练,把对文本内容的处理简化为 K 维向量空间中的向量运算,而向量空间上的相似度可以用来表示文本语义上的相似度。Word2vec输出的词向量可以被用来做很多 NLP 相关的工作,比如聚类、找同义词、词性分析等等。如果换个思路, 把词当做特征,那么Word2v转载 2017-08-26 18:13:42 · 179 阅读 · 0 评论 -
神经网络的激活函数sigmoid RELU
日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评指正!(此图并没有什么卵用,纯属为了装x …)Why use activation functions?激活函数通转载 2017-09-04 11:34:41 · 1028 阅读 · 0 评论 -
机器学习算法比较
本文主要回顾下几个常用算法的适应场景及其优缺点!(提示:部分内容摘自网络)。机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。假如你在乎精度(accuracy)的转载 2017-10-11 22:02:13 · 441 阅读 · 0 评论