谈谈对CNN在NLP中可行性的理解
谈到CNN,人们的直观感受还是其在图像处理领域取得的巨大成就,虽然近几年越来越多的论文使用到CNN与RNN的模型来探索卷积网络在自然语言处理中的应用,但始终还是无法取代CNN在图像中的地位,或是RNN之于NLP的地位。所以想谈谈自己对于CNN在NLP中可行性的一点个人理解。
CNN到底在干什么
提起CNN的作用,或者是原理,所有博客,教程等等,都会使用一个词:特征提取!那么,特征到底是个什么玩意儿?对于传统机器学习,无论分类还是拟合,都是靠着特征的组合进行学习与训练的,打个不太恰当的比方,就拟合而言,最终拟合出的曲线看作是各个特征的函数结果的话,那么特征就是各个自变量,而拟合的结果就是因变量。到这里还是比较好理解的,那么图像的特征是什么?语言文本的特征又是什么呢?一张照片摆在你面前,或者一段文字摆在书桌上,什么是他们的特征,又怎么去提取这些特征呢?
特征
先从我们人类的角度来理解下,当我们去看一幅图画,一张照片时,我们所关注的,其实是颜色的变化,或者线条的形状等等,如果有画商给你一张纯白的崭新的A4纸,告诉你这是毕加索的名画,你肯定不会相信,因为你什么画面都没有看到。也就是说,你什么特征都没有提取到!举个例子,最近非常火的一张图片: