语义理解的看法

       给你一篇文章或者一个句子,人们在理解这些句子时,头脑中会进行上下文的搜索和知识联想。对于一篇有思想的文章,作者的创作构思以及核心思想,我们人脑基本的处理逻辑都是结合过去学习过的规则和概念进行抽象总结。作者的创作过程可以形成一个图模型,清晰地展示出路径。目前的nlp根本达不到,都是浅层次的操作,因为目前的nlp基本上借鉴了图像处理机制,根本没有触及nlp的本质。nlp的进展将会十分艰难,因为机器永远不能理解字符串背后的涵义以及说话者到底发生了什么。目前来看,只有知识图谱算是当今Ai最有前景,道路最正确的一个研究方向。逻辑推理还有很长的路,吴文俊公式在理论上已经给出了支持,但是应用在计算机中困难重重。
       通常情况下,人在理解语义时头脑会搜寻与之相关的知识。知识图谱的创始人人为,构成这个世界的是实体,而不是字符串,这从根本上改变了过去的搜索体系。语义理解其实是基于知识、概念以及这些概念间的关系。人们在解答问题时,往往会讲述与这个问题相关的知识,这是语义理解的过程。这种机制完全不同于人对图像或者语音的认识。CNN在图像或者语音领域取得成果是不足为奇的,因为生物学家已经对人脑神经元在图像识别过程中的机制非常熟悉,但是对于人脑如何理解文字的神经元机制却知之甚少,所以导致了目前nlp语义理解方面进展非常缓慢。然而有的学者研究规则专家系统已经长达20多年,本人坚信这是正确的方向,最起码比单纯研究深度学习更有实际意义。研究nlp,语言逻辑,语言学是必修课,目前深度学习的瓶颈早就已经显现出来了,而且门槛儿远低于知识图谱,规则专家系统。
       单就深度学习来看的话,学院派的人花费大量精力在NLG,seq2seq,多任务自然语言生成等等上面。这些在知识图谱专家或者语言学家眼中就是学术界的玩票儿。本人在刚开始介入nlp学习的过程中,对深度学习很疯狂,尤其是seq2seq,后来请教王昊奋专家,王就很坦白地跟我说seq2seq是玩票儿,坑了很多人,包括在校研究生。所以本人从那以后重新反思之前的学习,重新确立方向,先把数学专业的数学进修好,包括6本数学著作涵盖泛函数,微积分,线代,统计学,矩阵论,凸优化。然后重点转向图模型推理,知识图谱的研究学习。在学习的过程中,前期走了很多弯路,幸亏及时修正了方向,要不然将会陷入深度学习的陷阱之中。当然深度学习并不是一无是处,最起码在图像中取得了非常好的效果,是成功的。在nlp中,深度学习与图模型结合初步解决推理问题也是成功的,谷歌大脑和DeepMind在18年已经做了尝试并且开源了代码。也就说深度学习引入到nlp中需要改进,一方面要改进自身的算法,比如CNN的动态池化层改进,输入层embedding的知识图谱嵌入扩展,另一方面又要与图模型,统计学进行融合。现在Ai界比较热的两大研究方向:一是AutoML,二是神经规则推理。在神经网络参数优化方面,遗传算法是重点。在联结主义和符号主义融合方面,国内的吕正东博士是先锋,他的深度好奇公司已经迈出来第一步。
       之前在网上看到很多介绍word2vector的博客,本人发现其中有很多错误。论述很多篇幅并没有抓住他的本质。还有一部分人质疑word2vector不是深度学习,说层数太浅达不到深度的级别,这是一种误解。word2vector是地地道道的深度学习,能够抽取出词的高阶特征。他的成功,关键是基于他的核心思想:相同语境出现的词语义相近。这在nlp中是非常重要的一个思想,利用上下文。除去上下文的影响因素,单纯从数学公式来看,w2v的skip_gram是logistic regression的升级版。所以w2v其实是很简单的,但是背后的想法不简单。这也是国内的研究人员与美国的研究人员的差距,国内人员习惯于复杂的公式推导,但是想法很low,美国正好相反。这一点从数学教育就可以看出来,国内热衷于感知层面的数学学习,和机器差不多。而国外主要从认知层面来学习数学。物理学,数学,神经生物学,生活常识都可以是想法的来源,比如上个世纪的pagerank好像很简单,但是欧洲的学者利用随机游走模型能够模拟出成功和运气之间存在很强的相关性。即使是简单的算法,国内的人也想不出来,原因是人天性里的好奇心和创造力从小被解题和刷题给灭掉了。
       再比如,给你一篇文章,抽取出其中的中心句或者总结出中心思想(当然了,只有中国的语文教学这样教学生,把学生教傻了,当前的在线教育利用Ai助纣为虐就是个妖魔化方向)。首先你得研究作为一个人本身的处理逻辑,然后从中抽象出数学模型然后再与Ai结合。
Ai的研究本质上就是对人脑逻辑的研究。这就是上层的灵感,尤其是幼儿时期的非经验主义的学习,不需要海量数据的灌输。这一点国内非常落伍,基本都是从google扒美国的论文,拿过来研究一下改改。去年百度副总闭关几个月阅读《脑科学导论》反思当下的深度学习,请问AI创业公司有几个能做到?除了吹牛还有别的本事吗?更进一步说,人本身就是十分复杂精密的机器,从DNA指导蛋白质合成过程就可以看出,人一定是上帝造出来的机器,不可能是随机组合,概率真的真的太太太低了。只有修正了认知才会进步。回到刚提出的问题,抽出中心句的过程,人脑逻辑是衡量上下文和假设中心句的语义相似度。所以才会有另一篇本人写的博客。
       目前来看,LSTM以及Attention Model是比较成功的,但是仍然基于形式化的,对于深层语义仍然没有解决,必须依靠规则专家系统!目前来看,深度学习算法LSTM,Attention Model等在nlp中的应用,仅限于上下文和词,句子向量。计算一下句子相似度,聚类之类的,要想真正让机器理解文字,还达不到。也就是说只在语义表示层做文章是远远不够的,底层的知识图谱是关键。Google提出的知识图谱是一种变革,nlp是一个完整的生态圈,从最底层的存储,GDB三元组(entry,relation,entry),到上层的语义表示(这个阶段可以借助深度学习直接在语义层进行训练),比如(head,relation,tail)三元组表示的图结构,表达了实体与实体间的关系,可以用深度学习训练出一个模型:h + r = t,获取语义表示。这样在预测时,得到了两个实体的语义表示,进行减法运算就可以知道两者的关系。这个不同于word2vector,但是还是有共性的。word2vector的模型训练和kg的向量化,两者其实存在一定的关联。前者可以看成是kg图结构碾平之后的序列化的向量表示。目前trans系列和基于语义相似度模型都可以解决kg的向量化。
       实体,关系和规则是深度学习引入到nlp中必须考虑的,也是逻辑推理的基本要素。深度学习获取语义表示(不仅限于文字,也可是一个有多维度的图节点),必须与规则交互,规则表明了实体之间如何交互。语义表示和规则是深度学习两大构成要素,二者相互交互。
       语义表示是深度学习在nlp文字应用中的方向。之前在词embedding上word2vector获取了巨大成功,现在主要方向是由词embedding迁移到句子或者文章embedding。之前的博客siamese lstm已经有论述了,在2014~2015年间,国外的学者探索了各种方法,比如tree-lstm,convnet,skip-thougt,基于ma机构的siamese lstm来计算句子或者文章的相似度。目前从数据来看,基于ma结构的siamese lstm效果最好,最适应nlp的规律。在github上已经有了siamese lstm的实验,进一步改进是基于BiLSTM+self_attention(本人提出),至于增加层数是否能够带来准确率的提升,有待于进一步论证,个人持中立态度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

佟学强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值