【Datawhale X 魔搭AI夏令营】大模型应用开发方向 Task 1

动手学大模型应用全栈开发

DataWhale (linklearner.com)

学习内容概览:

  • 通过学习大模型部署,动手搭建您的智能编程助手;
  • 掌握大模型检索增强生成(Retrieval Augmented Generation, RAG)技术,构建您的AI科研助手;
  • 实战大模型微调技巧,创建您的AI简历助手;
  • 全面掌握大模型应用全栈开发技能。

背景知识与概念:

  • 语言模型(Language Model):用于预测词序列中下一个词或缺失词的概率,以此模拟人类语言的内在规律。
  • 大型语言模型(Large Language Model, LLM):这类模型基于“扩展法则”,通过增加模型参数和训练数据量来提升其在下游任务上的表现,并展现出小模型不具备的“涌现能力”。代表性作品包括 GPT-3、ChatGPT、Claude 和 Llama 等。

构建过程: 大模型的构建通常包括以下几个阶段:

  • 预训练(Pretraining):使用大量数据进行模型参数的初始学习,目的是为模型参数寻找一个优秀的起始点。
  • 有监督微调(Supervised Fine-tuning, SFT):在此阶段,模型已具备强大的基础能力,能够编码丰富的世界知识。然而,由于预训练任务的局限性,模型更擅长文本补全而非直接解决问题。此方法通过成对的任务输入与预期输出数据,训练模型学会以问答形式回答问题,进而激发其解决问题的能力。
  • 基于人类反馈的强化学习对齐(Reinforcement Learning from Human Feedback, RLHF):核心在于构建一个能够反映人类价值观的奖励模型。该模型的训练依赖于人类专家对模型多种输出的偏好排序,通过偏好数据训练出的奖励模型能有效地评估模型输出的质量。


Docs

Step1:在魔搭社区创建PAI实例!(点击即可跳转)

Docs

Step2:Demo搭建!

第一步:文件下载

点击终端,然后输入如下命令,回车运行!

git lfs install git clone https://www.modelscope.cn/datasets/Datawhale/AICamp_yuan_baseline.git

第二步:环境安装

点击终端,然后输入如下命令,回车运行!

pip install streamlit==1.24.0

等待依赖安装成功!第三步:启动Demo

点击终端,然后输入如下命令,回车运行!

 
 

streamlit run AICamp_yuan_baseline/Task\ 1:零基础玩转源大模型/web_demo_2b.py --server.address 127.0.0.1 --server.port 6006

Step3:对话体验!

点击链接,跳转到浏览器新页面!

显示Demo名称,后台正在运行中!

等待后台完成模型下载和加载!

弹出对话框,现在开始对话吧!

下面,让你的编程助手简单写个代码吧!输入后回车即可运行!

参考Prompt:

给我一个python打印helloword的代码

改成c++的

可以看到,Yuan2-2B-Mars 模型不仅拥有出色的代码生成能力,而且能够紧密跟随用户的指令,与上下文完美融合。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

star_w10086

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值