参考文献:RNNLM - Recurrent Neural Network Language Modeling Toolkit(点此打开)
参考文献:STATISTICAL LANGUAGE MODELS BASED ON NEURAL NETWORKS(点此打开)
由Mikolov用rnn对语言进行建模所获得的效果已经超过传统的N-GRAM了,具体的实验结果在他的系列论文中都有解释,不过现在可以看看 他的PHD论文(点此打开),里面有各种对比实验。随即之后,他将rnnlm toolkit开源,可供其他人作为一个baseline,点此进入rnnlm toolkit的下载地址
这一篇文章是简要介绍rnnlm tookit的使用的,下面的内容我会把下载好的开源包里面的example.sh的shell脚本命令分开执行,并且详细说明每条命令所带参数的含义,更高级的用处在下载地址那个网页里面有专门的例子。由于可供选择的命令参数确实很多,不会全部都写,更详细的可以看一看相关文档,以及源代码。本文旨在把rnnlm最基本的功能介绍清楚,好了,下面是正文,初次写博客不久,如果有哪里错误的地方,还请大家多多指正哈。
1.编译
我的软件包版本是0.4b的,首先在在终端中进入到rnnlm-0.4b的目录(我的版本是0.4b的),然后编译,执行下面的命令:
make
有可能会出现如下错误:
make: x86_64-linux-g++-4.6: Command not found
make: *** [rnnlmlib.o] Error 127
这个时候可以将makefile文件的内容改一下:
CC = x86_64-linux-g++-4.6
更改为==>
CC = g++
重新执行即可,这里的错误处理参考了(http://blog.csdn.net/wangxinginnlp/article/details/17754173 )
2.用rnnlm训练模型