NLP-C2-W1-自动更正和动态规划

自动更正:

将拼写错误的单词修改正确。

工作原理:

  1. 识别拼写错误的单词
  2. 查找n编辑距离的字符串
  3. 筛选候选项
  4. 计算单词概率

构建模型

  1. Identify a misspelled word和字典匹配
    If word not in vocabulary then its misspedlled
  2. Find strings n edit distance away
    找到n编辑距离的字符串
  3. Edit: an operation performed on a string to change it每一步只对一个字母进行操作
    • Insert (add a letter) 插入一个字母
      Add a letter to a string at any position: to ==> top,two,…
    • Delete (remove a letter) 删除一个字母
      Remove a letter from a string : hat ==> ha, at, ht
    • Switch (swap 2 adjacent letters) 调换字母位置
      Exmaple: eta=> eat,tea
    • Replace (change 1 letter to another) 替换一个字母
      Example: jaw ==> jar,paw,saw,…

最小编辑距离

评估两个字符串之间的相似性,即将一个字符串转换为另一个字符串所需的最小编辑次数,该算法试图使编辑成本最小化。
图片: https://uploader.shimo.im/f/UkmtvG2IRU7qTCfL.png

最小编辑距离算法

列上是源单词,行上是目标单词,(0,0)处是每个单词开头的空字符串

D[i,j]是源单词开头到索引i和目标单词开头到索引j之间的最小编辑距离

图片: https://uploader.shimo.im/f/EiPgJ2V2sV8VOZIw.png
在这里插入图片描述

作业

资料:github链接
最后的backtrace algorithm没有完成

Part 3-3: suggest spelling suggestions

知识一:Short circuit

In Python, logical operations such as and and or have two useful properties. They can operate on lists and they have ‘short-circuit’ behavior.

知识二:sort a list of tuples by second Item

https://www.geeksforgeeks.org/python-program-to-sort-a-list-of-tuples-by-second-item/

知识三:set intersection

# UNQ_C10 (UNIQUE CELL IDENTIFIER, DO NOT EDIT)
# UNIT TEST COMMENT: Candidate for Table Driven Tests
# GRADED FUNCTION: get_corrections
def get_corrections(word, probs, vocab, n=2, verbose = False):
    '''
    Input: 
        word: a user entered string to check for suggestions
        probs: a dictionary that maps each word to its probability in the corpus
        vocab: a set containing all the vocabulary
        n: number of possible word corrections you want returned in the dictionary
    Output: 
        n_best: a list of tuples with the most probable n corrected words and their probabilities.
    '''
    
    suggestions = []
    n_best = []
    
    ### START CODE HERE ###
    suggestions = list((word in vocab and word) or edit_one_letter(word).intersection(vocab) or edit_two_letter(word).intersection(vocab))
    all_best = [(suggestion, probs[suggestion]) for suggestion in suggestions]
    n_best = sorted(all_best, key = lambda x: x[1], reverse = True)

    ### END CODE HERE ###
    
    if verbose: print("entered word = ", word, "\nsuggestions = ", suggestions)

    return n_best
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 自然语言处理(Natural Language Processing,简称NLP)是计算机科学与人工智能领域的一个重要研究方向,目的是让计算机能够理解、处理和生成人类的自然语言。NLP-100例是一份经典的NLP问题集合,包含了各种与自然语言处理相关的问题和挑战。 这份NLP-100例涵盖了从基础的文本处理到更高级的自然语言理解和生成的问题。例如,其中包括了文本预处理、词频统计、语法分析、词性标注、实体识别、情感分析、机器翻译等任务。 NLP-100例的目的是帮助研究者和开发者更好地理解NLP领域的核心问题和技术,同时提供一些典型的案例和数据集供实践和研究使用。通过完成这些例题,可以锻炼自己在NLP领域的能力和技术,提高对自然语言的处理和理解能力。 此外,NLP-100例也为研究者提供了一个可以与其他人交流和探讨的平台。研究者可以使用相同的数据集和问题进行实验和评估,从而更好地了解NLP技术的优劣和进展。 总之,NLP-100例是一个对NLP进行实践和研究的重要资源。通过解决这些例题,可以深入理解自然语言处理的基础和技术,掌握各种NLP任务的方法和技巧。同时,它也是一个促进交流和合作的平台,为NLP研究者提供了一个共同的基础和语言。 ### 回答2: 自然语言处理(Natural Language Processing,简称NLP)是研究计算机与人类自然语言之间的交互的一门学科。NLP-100例指的是日本的一个NLP入门教程,包含了100个常见的NLP问题和对应的解答。 NLP-100例涵盖了从文本处理到语义理解等多个方面的问题。其中,一些例子包括:文本的分词、词性标注、句法分析、语义角色标注和文本分类等。 以分词为例,分词是将一段连续的文本分割成词语的过程。在NLP-100例中,可以通过使用Python中的分词工具NLTK(Natural Language Toolkit)来实现分词功能。 另外,对于文本的词性标注,NLP-100例提供了使用POS(Part-Of-Speech)标记对文本中的每个词进行词性标注的方法。可以使用NLTK提供的POS标注工具来实现。 此外,NLP-100例还包括了语义角色标注的问题,语义角色标注是为了确定句子中的谓语动词所承担的语义角色,如施事者、受事者、时间等。可以使用Stanford CoreNLP工具包来实现语义角色标注。 最后,NLP-100例还介绍了文本分类的问题,文本分类是将文本划分到预定义的类别中。可以使用机器学习算法,如朴素贝叶斯或支持向量机(SVM)等来进行文本分类。 通过学习NLP-100例,我们可以了解到自然语言处理的基本方法和技术,并且可以利用这些技术来解决相关的自然语言处理问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值