NLP论文学习之 TextShield: Robust Text Classification Based on Multimodal Embedding and Neural Machine Translation
一、关键词学习:
1. NLP
一文看懂NLP NLP~NLU+NLG
语料预处理---》设计模型---》训练模型
2. NLU:自然语言理解
- 意图识别
- 实体提取
实现方式:基于规则,基于统计,基于深度学习
3. NLG:自然语言生成
非语言格式的数据转换成人类可以理解的语言格式
- 内容确定
- 文本结构
- 句子聚合
- 语法化
- 参考表达式生成
- 语言实现
4. LSTM
LSTM神经元加入了输入门,遗忘门,输出门和内部记忆单元
输入门:控制输入x和当前计算的状态更新到记忆单元的程度大小
遗忘门:控制输入x和上一层隐藏层输出h被遗忘的程度大小
输出门:控制输入x和当前输出取决于当前记忆单元的程度大小
5. BiLSTM
不完全双向训练:模型前后分别训练
6. CNN:卷积神经网络
7. NMT:神经机器翻译
基于神经网络的技术来实现更多上下文精确的翻译,而不是一次翻译一个单词的破碎句子。使用大型人工神经网络计算单词序列的概率,NMT将完整的句子放入一个集成模型中。
二、源码学习
目录结构:
- dist:页面渲染
- docs:页面布局和渲染
- docs:同docs,不同页面
src:核心代码
- crypto:加密解密
- encoding:编码格式
- filter:过滤器