自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 【Datawhale AI夏令营-大模型应用全栈开发】 Task 1 笔记

大模型是基于语言模型的演化,特别是大型预训练模型,其核心目标是提高语言理解和生成的能力。统计语言模型(SLM):利用马尔可夫假设,通过𝑛元模型进行语言建模。神经语言模型(NLM):基于神经网络,如循环神经网络(RNN),通过学习上下文相关的词表示(词嵌入)来建模。预训练语言模型(PLM):使用大量无标注数据进行预训练,再通过微调适应具体任务(如BERT、GPT系列)。大语言模型(LLM):强调通过扩展法则提升模型性能,展现出涌现能力(如GPT-3、ChatGPT)。

2024-08-11 23:45:00 388

原创 【Datawhale X 魔塔 AI 夏令营】 Task 1 笔记

图片来自Task 1学习手册。

2024-08-11 23:29:01 317

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK3 笔记

数据增强的优势:数据增强(Data Augmentation)是一种在训练集上生成新样本的方法,计算机视觉(CV)和自然语言处理 (NLP) 模型中经常使用数据增强,旨在通过创造变体来增加训练数据的多样性,这些变体保留了原始数据的主要信息,但呈现出不同的表达形式。:数据增强通过生成额外的训练样本,使模型能够在更多变体下进行学习,这有助于模型在未见过的数据上表现得更好。:通过增加训练数据量,模型有更少的机会对特定训练实例产生过度依赖,从而降低了过拟合的风险。

2024-07-20 22:44:35 794

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK2 笔记

迁移学习是一种机器学习技术,它将已在一个任务上学到的知识(如模型参数、特征表示等)应用到另一个相关任务上。

2024-07-16 23:13:30 614

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK1 笔记

在第一阶段,主办方将发布训练集和验证集。参赛者将使用训练集 (train_label.txt) 来训练模型,而验证集 (val_label.txt) 仅用于模型调优。文件的每一行包含两个部分,分别是图片文件名和标签值(

2024-07-14 10:40:44 377 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除