关闭

[置顶] 国内外自然语言处理(NLP)研究组

*博客地址 *收集的不全,以后慢慢补上。排名不分先后。 清华大学自然语言处理与社会人文计算实验室  http://nlp.csai.tsinghua.edu.cn/site2/ 清华大学智能技术与系统国家重点实验室信息检索组 http://www.thuir.cn/cms/ 哈工大社会计算与信息检索研究中心  http://ir.hit.edu.cn/ 哈工大机器智能...
阅读(13727) 评论(4)

[置顶] ICTCLAS2014 C++版本 的使用方法

这个工具是什么?先看看他的官方介绍吧: NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 虽然介绍时候还是用的ICTCLAS2013,但是你会发现下载的版本里面dll是2014版本的。...
阅读(10055) 评论(30)

[置顶] ICTCLAS2013 Java版本的使用方法

这个工具是什么?先看看他的官方介绍吧: NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 c++版本的使用方法:点击打开链接 Java32位版本下载地址:点击打开链接 介绍时候...
阅读(14557) 评论(70)

2017/0910 实验结果记录

实验1. Adam+LN(LN没有对context vector和source side的input做) 20000 BLEU score = 0.2947 21000 BLEU score = 0.3159 22000 BLEU score = 0.3109 23000 BLEU score = 0.3298 24000 BLEU score = 0.3196 25000 BLEU score...
阅读(175) 评论(0)

深度学习中Dropout和Layer Normalization技术的使用

两者的论文: Dropout:http://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf Layer Normalization:  https://arxiv.org/abs/1607.06450 两者的实现(以nematus为例子): https://github.com/EdinburghNL...
阅读(144) 评论(0)

神经机器翻译中的领域自适应问题 Domain adaptation for NMT

相关论文: 1. Stanford Neural Machine Translation Systems for Spoken Language Domains.  Minh-Thang Luong and Christopher D. Manning.   http://www.statmt.org/OSMOSES/Stanford-IWSLT-15.pdf 2. F...
阅读(158) 评论(0)

深度学习训练中cost突然出现NaN

问题:在深度学习训练中,之前的cost是正常的,突然在某一个batch训练中出现Nan。 网络搜索的资料: 1. How to avoid that Theano computing gradient going toward NaN https://stackoverflow.com/questions/40405334/how-to-avoid-that-theano-computing-...
阅读(188) 评论(0)

网页正文提取工具Beautiful Soup

Beautiful Soup是什么? Beautiful Soup is a Python library for pulling data out of HTML and XML files. It works with your favorite parser to provide idiomatic ways of navigating, searching, and modifyin...
阅读(197) 评论(0)

深度学习中Dropout策略

在写系统时候遇到一个问题:模仿的版本在测试阶段,把所有权重乘以一个保留概率(做法1)。而GJH他看的Keras里面测试阶段什么都不做(做法2),所以比较好奇,怎么做法不同? 但是随手搜了几个中文博客,都是按做法1来的,训练阶段按保留概率随机生成一个保留矩阵(元素要么0-丢弃,要么1-保留),然后测试阶段所有权重乘以保留概率。 在回头看TensorFlow的Dropout函数ht...
阅读(502) 评论(0)

组内NLP讨论班阶段总结

讨论班进行了三期了,效果比想象的要好很多。但也遇到不少问题: 1. 公式推导和编码实现     困惑是在讲解模型过程中,不可避免地涉及公式推导和编码实现。讨论班上是否对公式推导进行讲授,讨论班后是否组织大家进行编码实现这两点把握不准。     理想情况下讨论班应该只是成为一个“引子”,通过大家一起的讨论学习对某一个概念有了大致的了解。在后面学习或者实际应用中碰到该概念或者模型知道它是怎么回事...
阅读(384) 评论(0)

TensorFlow Seq2Seq Model笔记

1. tf.app.run()的疑惑     http://stackoverflow.com/questions/33703624/how-does-tf-app-run-work     tf.app类似python中argparse 2....
阅读(5620) 评论(0)

TensorFlow1.0 运行报错 AttributeError: type object 'NewBase' has no attribute 'is_abstract'

安装TF后,import tensorflow报错: I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally I tensorflow/stream_executor/dso_loader.cc:135] successfully opene...
阅读(1695) 评论(0)

爱丁堡大学神经机器翻译系统 nematus 使用笔记

代码准备: nematus https://github.com/rsennrich/nematus subword-nmt  https://github.com/rsennrich/subword-nmt...
阅读(1565) 评论(0)

强化学习 Reinforcement Learning 资料

1. 《机器学习》周志华著   第16章 2. https://www.analyticsvidhya.com/blog/2017/01/introduction-to-reinforcement-learning-implementation/ 3. https://www.nervanasys.com/demystifying-deep-reinforcement-learning/...
阅读(692) 评论(0)

组内菜鸟学习班

今天中午和褚师姐孙老师聊天,聊到了专业基础问题。大家都有同感,专业基础太差了。       11年至今,先后呆过四个组(硕士期间,计算所实习期间,博士期间和诺亚实习期间)。纵览各方豪杰,深感自己基础还是稍显薄弱。基础知识包括:机器学习/数学,专业知识,编程能力和英语读写。对于研究生做科研,自己的感觉就是前两项严重制约个人的发展。其实,目前看来,自己的基础应付毕业是没有大问题的(运气好,水了论文够...
阅读(635) 评论(0)

谷歌 Dynamic Computation Graphs 动态计算图

上次调研Syntax+NMT(http://blog.csdn.net/wangxinginnlp/article/details/56488921)发现Sequence-to-Tree 或者 Tree-To-Sequence目前已经火热起来,但是目前绝大部分的深度学习框架(http://blog.csdn.net/wangxinginnlp/article/details/58670706)只是...
阅读(634) 评论(0)

资料收集:深度学习框架比较

1. https://en.wikipedia.org/wiki/Comparison_of_deep_learning_software 2. https://deeplearning4j.org/compare-dl4j-torch7-pylearn 3. https://www.microway.com/hpc-tech-tips/deep-learning-framew...
阅读(572) 评论(0)

多语言神经机器翻译

1.  Multiple Language Neural Machine Translation 1.1 Multi-Task Learning for Multiple Language Translation (ACL 2015) http://www.aclweb.org/anthology/P/P15/P15-1166.pdf 1.2 Multi-way, multili...
阅读(660) 评论(0)
115条 共8页1 2 3 4 5 ... 下一页 尾页
    个人资料
    • 访问:254914次
    • 积分:3985
    • 等级:
    • 排名:第8704名
    • 原创:108篇
    • 转载:7篇
    • 译文:0篇
    • 评论:195条
    最新评论