自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Datawhale AI夏令营第四期-大模型应用开发Task4笔记

LoRA 是通过低秩矩阵分解,在原始矩阵的基础上增加一个旁路矩阵,然后只更新旁路矩阵的参数。

2024-08-20 23:19:06 718

原创 Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task3笔记

LoRA (Low-Rank Adaptation) 微调是一种用于在预训练模型上进行高效微调的技术。它可以通过高效且灵活的方式实现模型的个性化调整,使其能够适应特定的任务或领域,同时保持良好的泛化能力和较低的资源消耗。这对于推动大规模预训练模型的实际应用至关重要。

2024-08-17 21:08:47 625

原创 Datawhale AI夏令营第四期-大模型应用开发Task3笔记

最后,大型模型就能够依据所提供的知识来生成回复,从而更有效地解答用户的问题。因此,有时会出现模型“一本正经地胡说八道”的情况,尤其是在大模型不具备的知识或不擅长的场景中。知识局限性:大模型的知识来源于训练数据,而这些数据主要来自于互联网上已经公开的资源,对于一些实时性的或者非公开的,由于大模型没有获取到相关数据,这部分知识也就无法被掌握。然而,对于企业来说,数据的安全性至关重要,任何形式的数据泄露都可能对企业构成致命的威胁。,它是一个4层的BERT模型,最大输入长度512,输出的向量维度也为512。

2024-08-17 19:15:31 897

原创 DatawhaleX魔搭-AI夏令营AIGC-task2

首先,我们来看下它的自我介绍。通义千问是具有信息查询、语言理解、文本创作等多能力的AI助手。我们可以看到,编程与技术支持能力是它的强项之一。接下来我们把场景聚焦到编程与技术支持这个方向,让他详细介绍下自己可以如何帮助大家编程。

2024-08-14 19:22:21 785

原创 Datawhale AI夏令营第四期-大模型应用开发Task1笔记

是第四期联合一同开展的学习活动——适合想的学习者参与适合想成为的学习者参与:通过学习大模型部署、大模型检索增强生成(Retrieval Augmented Generation, RAG)实战、大模型微调实战,掌握大模型应用全栈开发。

2024-08-11 20:04:46 212

原创 Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task1笔记

第一步:开通阿里云试用​第二步:报名赛事​。

2024-08-10 20:21:09 350

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除