cnn加工是什么意思_CNN多类别文本分类示例

13857cd32232946895392a058c8d6c24.png

似乎有一个星期没有更新日志了,原因是最近搜集神经网络相关的资料,阅读笔记,内容上没有特别多的心得,业务上最近也没有太多跟技术上相关的工作,而我又对自己写的东西比较洁癖,不喜欢写一堆大家都在说的话来作为我的日志的内容。今天的内容是有关CNN文本分类的代码,这份代码的由来我倒是想多写一写。写书的人,如果发现一段比较好的英文示例代码,请尊重原创作者,把出处写出来,抄不全人家的注释,还不写出处,就不太好了。周末发现了某本书的一段到目前看过的较好的CNN示例代码,注释不全,更不去解释每一段的内容,当然原作者的代码中也没有解释,只不过就是直接抄过来,把部分注释翻译一下就完事。这还算是抄的比较好的,有的书干脆就是从头至尾没啥亮点。每天都在鄙视阿三,人家的书至少没乱抄,国人的。。。不乏有示例代码,但是能把代码每一句所表达意义说清楚的书少。就像之前介绍朴素贝叶斯、支持向量机的书一样,只是把sklearn示例原文或者改一改照搬的很多,真正把每一句意义说清楚的少。论文更是一样,强烈建议核心期刊在录用论文时强制要求提供代码,我想这样是不是也可以杜绝乱写、伪造数据的文章。

总算要说这段代码的出处了。

Using pre-trained word embeddings in a Keras model​blog.keras.io

这篇代码介绍了如何使用预训练的词嵌入向量词典作为嵌入层权重,有关嵌入层的详细细节我也还在研究中。其实应用神经网络的系统,只要问一句就傻,为什么会出这类badcase,这类badcase怎么解决。近半年内,没有意外,都会做角色识别的客串研究,不过看样子应该把客串改为根据自己兴趣了,因为应该我们这儿的学生对这个方向没啥感觉,我倒是挺有感觉。想想当年我的自己的研究内容,其实严格说应该是应用句法分析来解决一点小问题。其实有关NLP的书,不会以研究机器学习方法为重点,但绝不是他们不明白,而是还有很多篇幅要去写语言处理的内容。当然这类书欠缺实践代码,所以大部分从业的人也不去做这些,每天就拿个代码跑一跑了事。既然无事可做,我也不想做,那就琢磨琢磨这些“没用”的研究吧,研究就是研究,当然就有可能啥结果也没有,不妨就抱着没结果去干,是不是有种写小资风格作品的意思。冯的话,要让自己处在边缘生活状态中,才会有好的文字出来。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值