机器学习
mjj_1094
现在在学校实验室学习中
展开
-
文本深度表示模型Word2Vec
http://wei-li.cnblogs.com/p/word2vec.html简介Word2vec 是 Google 在 2013 年年中开源的一款将词表征为实数值向量的高效工具, 其利用深度学习的思想,可以通过训练,把对文本内容的处理简化为 K 维向量空间中的向量运算,而向量空间上的相似度可以用来表示文本语义上的相似度。Word2vec输出的词向量可以被用来做很多转载 2017-03-28 09:58:57 · 238 阅读 · 0 评论 -
Deep Learning in NLP (一)词向量和语言模型
Deep Learning in NLP (一)词向量和语言模型2013 年 7 月 29 日 BY LICSTAR·290条评论 这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。 Deep Learning 算法已经在图像和音频领域取得了惊人的成果,但是在 NLP 领域转载 2017-07-01 10:39:55 · 483 阅读 · 0 评论 -
交叉验证(Cross-validation)
交叉验证(Cross-validation) 交叉验证是一种用来评价一个统计分析的结果是否可以推广到一个独立的数据集上的技术。主要用于预测,即,想要估计一个预测模型的实际应用中的准确度。它是一种统计学上将数据样本切割成较小子集的实用方法。于是可以先在一个子集上做分析, 而其它子集则用来做后续对此分析的确认及验证。交叉验证的理论是由Seymour Geisser所开始转载 2017-11-20 08:19:33 · 833 阅读 · 0 评论 -
Hinge loss
# 基础The Hinge Loss 定义为 E(z) = max(0,1-z),在图中是蓝色的线所表示的那个,the Log Loss 为红色的线所表示,而 the Square Loss 是绿色 the misclassification error 用黑色表示。Figure 1Figure 1 来自 Chris Bishop's PRML bookHinge Loss转载 2017-11-20 22:09:32 · 458 阅读 · 0 评论 -
各种Loss Function的比较
本小节介绍一些常见的loss函数1. l1_loss&l2_loss衡量预测值与真实值的偏差程度的最常见的loss: 误差的L1范数和L2范数因为L1范数在误差接近0的时候不平滑,所以比较少用到这个范数L2范数的缺点是当存在离群点(outliers)的时候,这些点会占loss的主要组成部分。比如说真实值为1,预测10次,有一次预测值为1000,其余次的预测值为1左右,显然los转载 2017-11-21 07:59:52 · 26502 阅读 · 0 评论 -
机器学习评价指标大汇总
作者:无影随想 时间:2016年3月。 出处:http://www.zhaokv.com/2016/03/ml-metric.html声明:版权所有,转载请联系作者并注明出处 在使用机器学习算法的过程中,针对不同场景需要不同的评价指标,在这里对常用的指标进行一个简单的汇总。一、分类1. 精确率与召回率精确率与召回率多用于二分类问题。精确率(Precision)指的是转载 2017-11-21 08:08:02 · 231 阅读 · 0 评论 -
梯度下降优化算法综述
转自:https://www.cnblogs.com/lxjshuju/p/7397048.html#reference_10 该文翻译自An overview of gradient descent optimization algorithms。 总所周知。梯度下降算法是机器学习中使用非常广泛的优化算法,也是众多机器学习算法中最经常使用的优化方法。差点儿当前每一个先进的转载 2017-11-21 20:39:44 · 310 阅读 · 0 评论