斯坦福nlp学习笔记(一)

针对nlp的问题,对起课程进行翻译:

   cs224n-2017-lecture1

      1、人类的语言有哪些特点呢?

          一个人类语言就是能够特定的组织来表达其意思的系统:

       (1)不仅仅是一个环境信号,更多是一个交流信息;(2)用了一种编码方式,并且这种方式,一个小孩都可以能够很快的学习。

          所以一种人类语言就是一个离散的、符号、具有分类的信号系统

            (1)rocket = 火箭图片; violin = 提亲图片

            (2)表达信号具有非常少的例外对于表达信号(“I loooove it.” “Whoomppaaa”)

            (3)我们这种信号更加稳定

            (4)符号不仅仅是一个逻辑的发明或者经典的AI

         那么符号的类别可以分为以下几种:声音、手势、图片。

        然而大脑的编码似乎是连续激活模式,符号是通过连续的声音或者视频传递的。我们将会探究一个连续的编码模式,大量的词汇以及单词符号的编码为机器学习构造得到一个问题---数据稀疏??????

  比如很多词汇,但是一句话却只有几个单词,怎么表达这个句子的意思。

2、什么是深度学习

     深度学习是机器学习的一个子集

    大部分的机器学习表现好的原因是由于人做了大量的人为表示和输入特征。

       例如:命名实体识别就需要寻找类似于字符位置或者组织命名(organization names)

例如传统的机器学习就用到了如表格的第一列就是特征 包含current word、 previous

word、 next word、current word character n-gram/  current pos tag/  surrounding pos tag sequence/

  什么是深度学习

   (1)尝试自动的学习好的特征以及表示,称之为表示学习

   (2)尝试学习多个级别的表示和一个做后的输出。

  (3)from ‘raw’ 的输入x(例如sound  character  words)

学习深度学习的原因

  (1)手动的设计特征经常不完整并且需要很长的时间去考虑。

   (2)学习特征是非常容易适应很快学习的

  (3)深度学习是非常灵活,容易普及,可学习的框架对于单词representing  视觉和语言信息

   (4)可以学习无监督(from raw text)和监督数据(具有标签(like  positive/negative))

    (5)  在2010年深度学习已经超过了机器学习技术

   (6)大量的训练数据集支撑了deep

   (7)计算机资源的提高

  (8)新的model algorithms  想法:

                  1、更好的更加灵活的中间学习表示;

                  2、有效的端到端联合学习系统

                  3、有效的学习方法对于利用contexts 和任务之间的转移

  deep learning for speech

    第一次突破性的结果是在语音识别中对于大数据集,Context-Dependent Pre-trained Deep Neural Networks for Large Vocabulary Speech Recognition Dahl(2010)

deep learing for vision

     对于深度学习也是具有突破性的‘’

prerequisites先决条件

      proficiency in python (熟练使用)

       全程将使用python;多元微分  线性代数;概率论统计学  基础机器学习:

      (loss functions ;taking simple derivatives,performing optimization with descent(梯度下降最优算法))

 what do we hope to teach

   1/ an understanding of and ability to use effective moorden methods for deep learning

       理解并且运用深度学习的现在比较有效的方法

        (1)covering all the basics,but thereafter with a bias to the key methods used in NLP:

Recurrent network attention, etc.  讲授课程包含了所有基础方法,但是会注重讲解循环网咯,以及attention

      (2)some big picture understanding of  human languages and the difficulties in understanding and producing them

         一些图片理解人类语言和产生理解的困难

    (3)an undestanding of and ability  to build systems for some of the major problems in NLP:

               1/word similarities ,parsing,machine translation entity recognition ,question answering,sentence comprehension

               2、3 assignment :17% * 3=51%

               3、Midterm Exam: 17%

              4、Final Course Project or Assignment 4 (1–3 people): 30%  (最后课程项目)

                        (1)including for final project doing 

 

Why  is nlp hard?

        (1)Complexity in representing, learing,using lingusitic/situational/world/visual knowleage

            单词的表示复杂,学习复杂,语言场景,或者世界以及视觉知识比较复杂。

         (2)human languages are ambiguos (unlike other programing )

             人类的语言具有歧义

        (3)human languages interpretation depend on real world,common sense and contextual knowledge

             人类语言翻译依赖于真是的世界 场景和上下文知识

      1、the pople baby steps on gays

 

5. Deep NLP = Deep Learning + NLP

          combine ideas and goals of with using representation learing  and deep learing methods to solve them

         结合用学习表示方法和深度学习方法来解决他们

       several big improverments in recent years in NLP  with different

           (1) level: speech words ,synatx,semantics

           (2)parts-of-speech,entiies,parsing

           (3)application:machine translation,sentiment analysis,dialogue agents, question answering

    几个在nlp中的提高如下:

         (1)语音识别文字,语法,语义;(2)实体,解析(3)应用:机器翻译,语义分析,对话系统,智能问答

Word meaning as a neural word vector – visualization

   

word similarities

Nearest words to frog(青蛙)

 1、frogs  2、toad 3、litoria 4、leptodactylidaye 5、 

(1)traditional: words are made of morphemes(传统的方法是单词是由元素构成)

                      prefix (前缀) stem(词干)suffix(后缀)

                       un                         interest            ed

(2)DL:

               1、every morepheme is a vector (每一个元素就表示为向量)

               2、a neural network combines two vectors into one vector

                    神经网络能够把两个向量结合为一个向量

               3、luong et al.  2013

NLP Tools: Parsing for sentence structure

      Neural networks can accurately  determine the structure of sentences,supporting interpretation(神经网络能精确地决定句子结构,能够解释)

从上面可以看出可以把句子的单词,词性以及句法结构综合信息进行表示。

Representations of NLP Levels: Semantics

  1、Traditional:lambda calculus

        (1)Carefully engineered functions(非常仔细的特征工程)

        (2)take as input specific other functions(把输入指定其他函数)

        (3)没有相似(similarity)的概念或者没有模糊的语言,也就是不够接近语义

DL:

        (1)、每一个单词,每一个短语和每一个逻辑表达式都是向量

         (2)、神经网络把两个向量结合为一个向量

         (3)、

NLP Applications: Sentiment Analysis

   (1)传统:有一个情绪字典结合bag-of-words 表示以及手工否定特征;

   (2)一些深度模型

Question Answering

 (1)传统的大部分的人工特征来获取单词和其他知识,例如正则表达式

  (2)a deep learing architecture can be used   ,事实上采用向量存储

Dialogue agents / Response Generation

(1)一个简单比较成功的是google邮件的自动回复功能

(2)一个非常厉害并且一般的语言模型就是Recurrent Neural 

 

这是第一个开场的ppt翻译

下一章

cs224n-2017-notes1

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值