深度学习
sigma_Tian
书写是对思维的缓存
展开
-
基于LSTM和迁移学习的文本分类模型说明(Tensorflow)
具体的网络结构可以参照我的前一篇博客基于RNN的文本分类模型(Tensorflow)考虑到在实际应用场景中,数据有可能后续增加,另外,类别也有可能重新分配,比如银行业务中的[取款两万以下]和[取款两万以上]后续可能合并为一类[取款],而重新训练模型会浪费大量时间,因此我们考虑使用迁移学习来缩短训练时间。即保留LSTM层的各权值变量,然后重新构建全连接层,即图中的Softmax层。 ...原创 2018-03-06 15:06:38 · 9003 阅读 · 4 评论 -
CNN图像大小
输出尺寸=(输入尺寸-filter尺寸+2*padding)/stride+1转载 2018-05-14 23:36:36 · 1216 阅读 · 0 评论 -
LSTM原理
https://www.jianshu.com/p/dcec3f07d3b5转载 2018-06-08 14:00:20 · 986 阅读 · 0 评论 -
ATT-CNN(attention based CNN)
ATT-CNN文本分类,论文解读(Attention-based Convolutional Neural Networks for Sentence Classification)Attention-based CNN1. Basic CNN2. ATT-CNN作者:sigma_Tian来源:CSDN原文:https://blog.csdn.net/tcx1992/article/det...原创 2018-10-25 10:28:43 · 18058 阅读 · 12 评论 -
指代消解笔记
基础原理:共指消解技术主要用于解决多个指称对应同一实体对象的问题。在一次会话中,多个指称可能指向的是同一实体对象。利用共指消解技术,可以将这些指称项关联(合并)到正确的实体对象,由于该问题在信息检索和自然语言处理等领域具有特殊的重要性,吸引了大量的研究努力。共指消解还有一些其他的名字,比如对象对齐、实体匹配和实体同义。共指消解问题的早期研究成果主要来自自然语言处理领域,近年来统计机器学习领域的...原创 2018-10-25 14:24:18 · 12965 阅读 · 16 评论