- 博客(5)
- 收藏
- 关注
原创 【Datawhale AI夏令营-大模型应用全栈开发】 Task 1 笔记
大模型是基于语言模型的演化,特别是大型预训练模型,其核心目标是提高语言理解和生成的能力。统计语言模型(SLM):利用马尔可夫假设,通过𝑛元模型进行语言建模。神经语言模型(NLM):基于神经网络,如循环神经网络(RNN),通过学习上下文相关的词表示(词嵌入)来建模。预训练语言模型(PLM):使用大量无标注数据进行预训练,再通过微调适应具体任务(如BERT、GPT系列)。大语言模型(LLM):强调通过扩展法则提升模型性能,展现出涌现能力(如GPT-3、ChatGPT)。
2024-08-11 23:45:00
388
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK3 笔记
数据增强的优势:数据增强(Data Augmentation)是一种在训练集上生成新样本的方法,计算机视觉(CV)和自然语言处理 (NLP) 模型中经常使用数据增强,旨在通过创造变体来增加训练数据的多样性,这些变体保留了原始数据的主要信息,但呈现出不同的表达形式。:数据增强通过生成额外的训练样本,使模型能够在更多变体下进行学习,这有助于模型在未见过的数据上表现得更好。:通过增加训练数据量,模型有更少的机会对特定训练实例产生过度依赖,从而降低了过拟合的风险。
2024-07-20 22:44:35
794
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK2 笔记
迁移学习是一种机器学习技术,它将已在一个任务上学到的知识(如模型参数、特征表示等)应用到另一个相关任务上。
2024-07-16 23:13:30
614
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK1 笔记
在第一阶段,主办方将发布训练集和验证集。参赛者将使用训练集 (train_label.txt) 来训练模型,而验证集 (val_label.txt) 仅用于模型调优。文件的每一行包含两个部分,分别是图片文件名和标签值(
2024-07-14 10:40:44
377
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人