- 博客(4)
- 收藏
- 关注
原创 【Natural Language Processing】seq2seq学习笔记
seq2seq可以看成是一个翻译模型,即通过一个sequence转换为另一个sequence,也可以看做是对联的生成,即通过上联来产生下联,其主要是使用两个RNN(其实是LSTM,具体可看:LSTM(Long Short-Term Memory)学习),一个进行Encoder,另一个进行Decoder,即Encoder-Decoder,其可用在NLG(Nature Language Gener
2017-07-18 11:52:22 1603
原创 【Deep Learning】LSTM(Long Short-Term Memory)及变体
通过对RNN理解的基础上(具体可见:【Deep Learning】循环神经网络推导和实现),可以进一步了解LSTM(LongShort-Term Memory,其出现的原因是为了解决RNN对长依赖的句子上表现不好的情况。其本质是通过合理的激活一些信息,避免距离成为信息强度的决定性因素,目前LSTM除了原来的结构外,还衍生出了很多变体。一、RNN与LSTM结构图 通过前一节我们
2017-07-18 10:26:50 3002
原创 【Deep Learning】循环神经网络(RNN)推导和实现
主要参考wildml的博客所写,所有的代码都是python实现,并且没有使用深度学习的框架,所以对理解RNN可以起到很大的帮助。一、语言模型 如果一个句子有m个词,那么这个句子生成的概率就是: 其即假设下一次词生成的概率和只和句子前面的词有关,举一个例子:How are you,生成的概率可以表示为: P(How are you) = P(you)
2017-07-17 20:45:31 1599
原创 【Natural Language Processing】基于CRF++的中文分词
一、任务简介 中文分词是中文信息处理领域中的最重要的任务,它对于智能信息处理技术具有重要的意义,当前的各种汉语分词技术都可以取得不错的结果。本任务做的是繁体中文分词,将训练语料的30%作为验证集,70%作为训练集,按通常的 P/R/F 三个指标进行评测,最后用全部训练数据进行训练,用给出的测试数据进行测试,并将结果提交。本次任务使用条件随机场模型(CRF)进行实验。2
2017-07-11 20:37:06 837
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人