学习目录
阿力阿哩哩:深度学习 | 学习目录zhuanlan.zhihu.com![881de027fad082b66aea0d54f85ce5ee.png](https://i-blog.csdnimg.cn/blog_migrate/994d28ac576ef6b225a18b81f165d119.jpeg)
前面我们介绍了:
阿力阿哩哩:一文掌握CNN卷积神经网络zhuanlan.zhihu.com![ab934e2a74a45bc18756466853d6688d.png](https://i-blog.csdnimg.cn/blog_migrate/ba5659a8b8afbf954902126390551212.jpeg)
![e08df8465e9490b5b3c196e0146dfe2f.png](https://i-blog.csdnimg.cn/blog_migrate/5b4cfa523923caa14300d7571627570e.jpeg)
4.7代码实践
4.7.3 CNN卷积神经网络之文本分类
笔者在4.7.2节介绍了神经网络文本分类的招聘信息分类(代码实践|全连接神经网络与文本分类),并介绍了文本在进入神经网络前的预处理工作。今天笔者给大家分享的是CNN卷积神经网络对招聘数据的分类,也同样要对文本进行预处理,所以还没了解文本预处理的读者,可以翻阅4.7.2节。
同样地,我们的招聘数据集也是和上一小节一样。
1. 实验流程
(1) 加载数据
(2) 数据上标签
(3) 中文分词
(4) 提取文本关键词
(5) 建立token字典
(6) 使用token字典将“文字”转化为“数字列表”
(7) 截长补短让所有“数字列表”长度都是50 :保证每个文本都是同样的长度,避免不必要的错误。
(8) Embedding层将“数字列表”转化为"向量列表"
(9) 将向量列表送入深度学习模型(CNN卷积神经网络)进行训练
(10)保存模型与模型可视化
(11)模型的预测功能
(12)训练过程可视化
2. 代码
1.
1) 加载数据
1.
![4ce28d5ad94f1e44bf885e72063c8bdb.png](https://i-blog.csdnimg.cn/blog_migrate/de3715f34d42b9de3d698eb2e87c0e67.jpeg)
1.
2) 训练
1.
3) 开始训练CNN
1.
![e53dfe5958fa3480d8c008b021032cbe.png](https://i-blog.csdnimg.cn/blog_migrate/abf846d9f350214e070a959317de3c0d.jpeg)
![af227f669ff81ac1a356822d68b80779.png](https://i-blog.csdnimg.cn/blog_migrate/1bd2d763b0d374d683f747c8ff8a90d3.jpeg)
4) 保存模型
1.
5) 模型的预测功能
1.
![a90e99952325a088181bd8f6a6d80b42.png](https://i-blog.csdnimg.cn/blog_migrate/ad94e0347767df0137b0d3c930e3b826.png)
6) 训练过程可视化
1.
![a83fb91c5bfb716713bb544a24c3d419.png](https://i-blog.csdnimg.cn/blog_migrate/be05e22630eead6eefe8673273126ebd.jpeg)
3. 结果分析
在迭代了1个epochs之后,验证集的损失loss和acc,趋于平稳,这时,我们得到的模型已经是最优的了。所以讲epoch设置为1即可。
下一期,我们将继续介绍
CNN卷积神经网络|图像分类
happy valentine's day~
关注我的微信公众号【阿力阿哩哩的炼丹日常】~不定期更新相关专业知识~
喜欢就点个赞吧~
![c2c9363d582f00ca4d700a2c6175f91f.png](https://i-blog.csdnimg.cn/blog_migrate/7b7b4ab69c2ef3c53110e20cbd87a034.jpeg)