- 博客(7)
- 资源 (2)
- 收藏
- 关注
原创 【Deep Learning】genCNN: A Convolutional Architecture for Word Sequence Prediction
作者:Mingxuan Wang,李航,刘群 单位:华为、中科院 时间:2015 发表于:acl 2015 文章下载:http://pan.baidu.com/s/1bnBBVuJ主要内容: 用deep learning设计了一种语言模型,能够根据之前“所有”的历史来预测当前词的条件概率。用语言模型迷惑度衡量、用机器翻译衡量,该模型都比baseline(5-gram、RNN、等)好具体内容
2015-06-29 20:40:42 7529
原创 在win7 + vs express for desktop中安装stlport和boost库
一、安装stlport stlport是将sgi的stl库平移到各个平台上。sgi的这个库的特点就是效率非常高。boost在这个库上面运行要比vs自带的stl库效率高。所以我们首选安装stlport。 下载stlport:http://sourceforge.net/projects/stlport/ 最新版本是5.2.1 放到C盘根目录下面,解压。进入”vs2012 x86 native to
2015-06-28 22:16:27 6500
原创 【LDA】并行化LDA的一些开源资料
资料:http://dataunion.org/10760.html google pLDA:https://code.google.com/p/plda/ yahoo Y!LDA:https://github.com/sudar/Yahoo_LDA
2015-06-21 18:27:11 8089
原创 【LDA】用MPI优化GibbsLDA++-0.2
MPI 是“Message Passing Interface”的缩写,通常用来做单机多线程的并发编程。 1. GibbsLDA++中训练框架大致如下: 循环:训练过程迭代N次 { 循环:遍历每一个训练样本(指doc) { 循环:遍历训练样本中的每一个word { 循环:gibbs采样过
2015-06-21 17:21:20 8231
原创 通俗理解LDA主题模型 zz
原文地址:http://www.note4j.com/?p=113 0 前言 印象中,最开始听说“LDA”这个名词,是缘于rickjin在2013年3月写的一个LDA科普系列,叫LDA数学八卦,我当时一直想看来着,记得还打印过一次,但不知是因为这篇文档的前序铺垫太长(现在才意识到这些“铺垫”都是深刻理解LDA 的基础,但如果没有人帮助初学者提纲挈领、把握主次、理清思路,
2015-06-18 00:10:28 7264
原创 【LDA】修正 GibbsLDA++-0.2 中的两个内存问题
周末这两天在家用LDA做个小实验。在LDA的众多实现的工具包中,GibbsLDA 是应用最广泛的,包括c++版本、java版本等。GibbsLDA++ 是它的C++版本的实现,目前最新版本是0.2版。在实际使用过程中,发现这个实现版本有内存使用问题。我花了一些时间定位到了问题,贴出来供大家参考。 问题1:数组内存访问越界 在model.cpp中,用到了两个矩阵nw和nd,分别存储wor
2015-06-07 23:24:23 7691 1
转载 【转载】语义分析的一些方法
貌似是腾讯广点通部门的人写的,挺不错的。 原文地址:http://dataunion.org/10748.html http://dataunion.org/10760.html http://dataunion.org/10781.html 语义分析,本文指运用各种机器学习方法,挖掘与学习文本、图片等的深层次概念。wikipedia上的解释:In machine
2015-06-01 00:17:17 8720
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人