- 博客(3)
- 收藏
- 关注
原创 NLP②语言学介绍
由于结构和训练选择,神经语言模型只能学习固定深度的函数链(固定神经网络层数,局部最优,表达能力有限无法学习复杂数据),这限制了它们在处理某些自然语言现象时的能力。语言学提供的工具,这些工具可以用来描述和分析语言。解析是识别句子的句法结构的过程,通过递归定义的名词短语(NP)和动词短语(VP),给句子的每个成分分配意义。也就是说如果能自动学习到语言中的复杂模式和关系,就不需要用到前面那些显式定义的规则或标签,这种方法可以大大提高自然语言处理的效果,因为它能够处理更复杂的语言现象,并在许多下游任务中表现出色。
2024-07-26 16:45:08
372
原创 [13] recap:Transfer Learning in NLP
Vision Transformer (ViT) 是一种基于 Transformer 架构的计算机视觉模型,通过将图像划分为固定大小的 patch,然后对每个 patch 进行线性嵌入,并添加位置嵌入,最终将这些向量序列输入到标准的 Transformer 编码器中,生成最终的图像表示。这种方法有助于处理罕见词和拼写错误的词。NLP中的应用:例如,一个模型可能在大规模文本语料库上进行预训练,任务包括预测句子中的缺失词(掩码语言模型)、预测序列中的下一个词(语言模型)或预测两个句子是否连续(下一句预测)。
2024-07-26 01:33:04
493
原创 NLP①概论
计数的发展是一个重要的例子,此外还有农业和导航等应用。这些发展不仅促进了抽象思维的进步,也推动了修辞学和法律等领域的发展,使得群体思考和规划成为可能,并实现了知识的指数级传播。通过这些技术,计算语言学使得自然语言处理(NLP)系统能够有效地处理大量的文本和语音数据,从而实现信息提取、翻译、问答系统、对话系统等多种应用。例如,如果我们定义一个形式语言只包含所有以 "a" 开头的字符串,那么对于Σ = {a, b},这个语言的字符串可能包括 "a", "aa", "ab", "aaa" 等。
2024-07-22 19:45:54
730
这是一个基于命令行的猜数字游戏
2024-07-22
COMSCI 380 笔记以及习题
2024-07-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人