Natural Language Processing
文章平均质量分 97
@kc++
练习时长两年半
展开
-
注意力机制与其变体
自注意力和多头注意力的发展自注意力机制是注意力的一种形式,它允许模型在处理一个序列时,将每个元素与序列中的其他元素进行比较。这种机制在Transformer模型中被广泛采用,因为它提供了一种更有效的方式来捕捉序列内的全局依赖。多头注意力则是自注意力的扩展,它将注意力分割成多个头部,每个头部独立地关注输入数据的不同部分。这种方法提供了更复杂和灵活的方式来捕捉数据中的多种模式和特征。原创 2023-12-21 11:17:58 · 1602 阅读 · 2 评论 -
文本分类任务
文本分类任务是自然语言处理(NLP)中的一个常见问题,目的是根据预定义的类别来自动对输入的文本进行分类。这类任务广泛应用于垃圾邮件过滤、情感分析、主题标签生成等场景。常用的方法包括朴素贝叶斯分类、支持向量机(SVM)、神经网络等。原创 2023-08-27 22:14:48 · 669 阅读 · 1 评论 -
语言模型(language model)
语言模型是一种用于预测文本序列中下一个词或字符的概率分布的模型。它可以捕获语言结构的某些方面,如语法、句式和上下文信息。传统的语言模型通常使用N-gram方法或隐藏马尔可夫模型,但这些模型往往不能捕捉到长距离依赖和复杂的语义信息。原创 2023-08-26 01:32:53 · 1974 阅读 · 1 评论 -
词向量及文本向量
词向量和文本向量是自然语言处理(NLP)中用于表达文本数据的数学模型。原创 2023-08-26 00:25:24 · 671 阅读 · 1 评论 -
中文分词和tfidf特征应用
中文分词和TF-IDF(Term Frequency-Inverse Document Frequency)是自然语言处理(NLP)中的两个基础技术。原创 2023-08-25 00:52:19 · 696 阅读 · 1 评论 -
深度学习处理文本(NLP)
深度学习处理文本主要涉及到自然语言处理(NLP)领域。随着深度学习技术的发展,NLP领域已经取得了很大的进展。原创 2023-08-24 15:44:34 · 2390 阅读 · 1 评论