自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 Datawhale AI 夏令营(逻辑推理方向)2024 3期 笔记4

在大模型领域中,“提示工程”(Prompt Engineering)是一种通过精心设计输入提示(prompt)来引导模型产生期望输出的技术。这种技术广泛应用于自然语言处理任务中,尤其在对话系统、文本生成等领域表现突出。

2024-08-03 17:38:32 593

原创 Datawhale AI 夏令营(逻辑推理方向)2024 3期 笔记3

LoRA (Low-Rank Adaptation) 是一种高效的微调技术,它通过引入低秩矩阵来更新模型的一部分权重,而不是更新整个模型的所有权重。这种方法可以显著减少内存消耗和计算成本。使用LoRA,训练参数仅为整体参数的万分之一、GPU显存使用量减少2/3且不会引入额外的推理耗时。

2024-08-02 20:47:58 2324

原创 Datawhale AI 夏令营(逻辑推理方向)2024 3期 笔记2

填入要调用的模型名称。

2024-07-30 18:37:30 1829

原创 Datawhale AI 夏令营(逻辑推理方向)2024 3期 笔记1

大模型,在本文中指,是拥有非常庞大参数量的神经网络模型,尤其是在自然语言处理(NLP)领域。这些模型通过在海量数据上训练,能够理解和生成语言,执行诸如文本生成、翻译、问答等多种任务。在本期Datawhale AI夏令营中,我们将通过调用大模型来实现逻辑推理相关问题,那么大模型是如何实现该过程的?要了解其原理,我们首先要知道大模型是如何理解文字的。

2024-07-28 17:45:45 776

原创 Datawhale AI 夏令营(NLP方向)2024 2期 笔记3

Transformer模型是一种在自然语言处理(NLP)领域中革命性的架构,它首次出现在2017年的论文《Attention is All You Need》中。这个模型设计用于序列到序列的任务,如机器翻译,但其影响远远超出了这个范围,现在被广泛应用于各种NLP任务和其他序列建模场景。

2024-07-20 21:10:22 851

原创 Datawhale AI 夏令营(NLP方向)2024 2期 笔记2

这里我们提到的神经网络,指的是人工神经网络(Artificial Neural Networks, ANNs)。它是一种计算模型,这种模型能够学习和处理复杂的数据模式,通过模拟大脑神经元之间的连接和信号传递来实现。神经网络技术旨在让机器能够像人类一样理解和处理复杂的信息。

2024-07-17 21:04:40 2109

原创 Datawhale AI 夏令营(NLP方向)2024 2期 笔记1

之所以被称为“基于规则的方法”,是因为同一种语义在不同的语言当中通常会以不同的词序去表达,词替换过程相对应地需要两种语言的句法规则作为指导。基于规则的机器翻译是机器翻译任务的第一套解决方案,它基于“每一种语义在不同的语言当中都存在与其相对应的符号”这一假设。基于规则的方法最严重的缺陷在于其缺乏翻译过程中对上下文信息的建模,这使得基于规则的翻译模型的鲁棒性不佳。这就一个是最简单的机器翻译示例。在上述例子中,“hello world”的语言—英语,即为源语言,“你好世界”的语言—汉语,即为目标语言。

2024-07-14 16:25:52 1067

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除