自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 DataWhale AI夏令营 大模型应用开发 - Task4 源大模型微调实战

LoRA 是通过低秩矩阵分解,在原始矩阵的基础上增加一个旁路矩阵,然后只更新旁路矩阵的参数。参考资料LoRA paper大模型轻量级微调(LoRA):训练速度、显存占用分析【深度学习】混合精度训练与显存分析全网最全-混合精度训练原理2 源2.0-2B 微调实战本节我们将进行 源2.0-2B 微调实战,我们使用一个简历命名实体识别的数据集进行微调,进而开发一个AI简历助手,进而可以批量地自动识别并提取简历中的关键信息(如姓名、教育背景、工作经历等),提升简历处理的效率。

2024-08-21 14:59:12 863

原创 Datawhale X 魔搭 AI夏令营-AIGC文生图方向 task03笔记

LoRA (Low-Rank Adaptation) 微调是一种用于在预训练模型上进行高效微调的技术。它可以通过高效且灵活的方式实现模型的个性化调整,使其能够适应特定的任务或领域,同时保持良好的泛化能力和较低的资源消耗。这对于推动大规模预训练模型的实际应用至关重要。

2024-08-16 21:07:26 623

原创 DataWhale AI夏令营 大模型应用开发 - Task3 RAG实战

知识局限性:大模型的知识来源于训练数据,而这些数据主要来自于互联网上已经公开的资源,对于一些实时性的或者非公开的,由于大模型没有获取到相关数据,这部分知识也就无法被掌握。数据安全性:为了使得大模型能够具备相应的知识,就需要将数据纳入到训练集进行训练。然而,对于企业来说,数据的安全性至关重要,任何形式的数据泄露都可能对企业构成致命的威胁。大模型幻觉:由于大模型是基于概率统计进行构建的,其输出本质上是一系列数值运算。

2024-08-16 20:06:17 927

原创 DataWhale AI夏令营 大模型应用开发 - Task2 头脑风暴会笔记

李哥通过群里的报名表找到了我,一拍即合组成了小队,一段时间后找到了一位大佬参与我们的项目。张同学的经验非常丰富,阐述了目前他了解的项目的前景。

2024-08-13 14:45:37 186

原创 Datawhale X 魔搭 AI夏令营-AIGC文生图方向 task02笔记

整个过程不是很难,新奇的文生图代码为我打开了新世界的大门,不敢想象随着代码和硬件的升级,未来ai生图会在任何领域疯狂发展。我对目前已经掌握的知识充满激情,已经记下了许多想要了解的方向,希望比赛进程放缓一点,这样我就有更多时间来学习。

2024-08-12 19:56:04 212

原创 DataWhale AI夏令营 大模型应用开发 - Task 1 笔记

推荐使用支付宝扫码。

2024-08-11 13:59:42 324

原创 Datawhale X 魔搭 AI夏令营-AIGC文生图方向 task01笔记

推荐使用支付宝扫码。

2024-08-11 11:34:50 298

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除