自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 2024.2 DataWhale 多智能体实战 第四章 多智能体开发

下面我们将演示使用MetaGPT开发一个多智能体系统,这个系统中包含“学生”和“老师”两个角色。当用户输入一个主题,学生便开始以用户输入的主题创作一首诗词。而后老师会对学生的诗词提出修改意见,学生则会根据老师的意见对之前的诗词进行修改。老师和学生分别执行一次,记为一轮,智能体系统持续执行这套操作,直至达到预设的循环次数。

2024-03-04 22:32:59 891 1

原创 2024.2 DataWhale 多智能体实战 第三章 单智能体开发

下面将演示如何使用MetaGPT实现一个单动作智能体,该智能体可以根据用户的需求写出一个python函数,比如:"write a function that calculates the sum of a list"。act函数先是通过get_memories函数获取到用户的需求,进行调用todo.run函数执行SimpleWriteCode这个动作,并拿取返回的python代码文本,最后将文本打包成Message格式进行返回。测试一个难度更高的需求:返回数组中的最大的负数,返回-1如果数组中没有负数。

2024-03-02 00:19:28 827

原创 2024.2 DataWhale 多智能体实战 第二章 智能体综述及多智能体框架介绍

AI智能体(agent)可以根据设定的目标或任务,自驱地定义工作流程,并调用工具对任务进行逐步解决。LLM是AI智能体的大脑,智能体具备以下几种能力:1. 规划(目标拆解,反思和完善)2. 记忆(短期 vs 长期)3. 工具使用 (外部API)目前AI智能体的案例包括:Baby AGI,斯坦福小镇等等MetaGPT是一个多智能体协作框架,其优势在于可以生成稳定的解决方案和多样化的角色分配。MetaGPT包含了智能体环境标准流程(SOP)评审路由订阅和经济几个组成部分。

2024-02-28 20:07:13 389

原创 2024.2 DataWhale 多智能体实战 第一章 MetaGPT环境配置

项目地址: GitHub - datawhalechina/hugging-multi-agent: A tutorial to quickly help you understand the concept of agent and muti-agent and get started with coding development逐行输入以下三条命令:(0.6.6版本): 时间比较久API获取,请登录智谱AI官网(智谱AI开放平台)申请使用权限。新建metagpt文件夹,进入metagpt文

2024-02-27 02:04:05 400

原创 2024.1 书生·浦语大模型实战营 第 6 节 课后作业

使用OpenCompass评测InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能。

2024-02-21 21:41:23 312

原创 2024.1 书生·浦语大模型实战营 第 6 节 课堂笔记

了解不同模型在各类应用场景下的表现,并指导模型进行优化提升。

2024-02-21 20:27:25 347

原创 2024.1 书生·浦语大模型实战营 第 5 节 课后作业

2. TurboMind 推理+命令行本地对话。

2024-02-21 00:25:48 401

原创 2024.1 书生·浦语大模型实战营 第 5 节 课堂笔记

LMDeploy包括了模型的轻量化、推理引擎、服务。

2024-02-21 00:02:35 337

原创 2024.1 书生·浦语大模型实战营 第 4 节 课后作业

构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手。将internlm-chat-7b模型复制到ft-diyqa内。1. 创建conda环境,安装依赖以及XTuner。在/root目录下创建ft-diyqa文件夹,过程省略,参照教程文档。

2024-02-19 19:38:29 329 1

原创 2024.1 书生·浦语大模型实战营 第 4 节 课堂笔记

大模型的微调有两种1. 增量预训练:给模型提供一些新知识,让模型在指定领域表现更好。训练语料都是陈述句(system和input为空,只在output有内容)2. 指令微调:让模型学会根据人类指令进行对话。指令微调时,通过模板将训练预料中的System,User和Assistant拼接起来,并且只对答案部分计算损失。(推理时不分角色,直接和模型聊天即可)LoRA & QLoRA:原基座模型权重不变,在旁路新增一个权重分支,来实现对模型的微调。

2024-01-13 22:30:58 405 1

原创 2024.1 书生·浦语大模型实战营 第 3 节 课堂笔记

项目地址:GitHub - InternLM/tutoriald第二节课视频地址:(3)基于 InternLM 和 LangChain 搭建你的知识库_哔哩哔哩_bilibili

2024-01-11 17:52:31 391 1

原创 2024.1 书生·浦语大模型实战营 第 3 节 课后作业

项目地址:GitHub - InternLM/tutoriald第二节课视频地址:(3)基于 InternLM 和 LangChain 搭建你的知识库_哔哩哔哩_bilibili

2024-01-11 17:51:35 402 1

原创 2024.1 书生·浦语大模型实战营 第 2 节 课后作业

项目地址:GitHub - InternLM/tutoriald第二节课视频地址:(2)轻松玩转书生·浦语大模型趣味Demo_哔哩哔哩_bilibili

2024-01-10 00:25:52 357

原创 2024.1 书生·浦语大模型实战营 第 2 节 课堂笔记

项目地址:GitHub - InternLM/tutoriald第二节课视频地址:(2)轻松玩转书生·浦语大模型趣味Demo_哔哩哔哩_bilibili

2024-01-10 00:23:47 366

原创 2024.1 书生·浦语大模型实战营 第 1 节 课堂笔记

2. 判断业务场景的复杂度。如果业务场景简单,可以采用prompt engineering的方式;如果业务场景复杂,则需要对模型本身进行调整。3. 在对模型进行微调前,需考虑算力,进而决定是采用全参数微调还是部分参数微调(如lora)。1. 模型选型:根据开源模型在各项任务中的表现,结合自身业务场景进行模型选型。4. 模型微调完成后,需考虑是直接使用模型,还是构建智能体解决更加复杂的问题。6. 模型部署,需考虑资源利用效率以及吞吐量。书生·浦语全链条开源开放体系。5. 模型的评测,上线。

2024-01-06 22:27:03 463 1

原创 2023.11DataWhale强化学习笔记——Week1

强化学习让机器在不断的尝试和试错中学习到正确的策略。

2023-11-15 21:49:31 54 1

原创 2023.10DataWhale扩散模型学习笔记——Week4

推荐阅读材料:《扩散模型-从原理到实战》第七章。

2023-11-10 23:22:38 108

原创 2023.10DataWhale扩散模型学习笔记——Week3

推荐阅读材料:《扩散模型-从原理到实战》第六章本文深入解读Stable Diffusion中的各个模块首先,如果想要快速体验Stable Diffuision,可以从HuggingFace直接下载预训练好的Pipeline,然后直接调用pipe()函数进行图片生成如果想要深入了解Pipeline中的各个组成模块,则需先把他们下载下来。

2023-11-03 20:47:51 104

原创 2023.10DataWhale扩散模型学习笔记——Week2

推荐阅读材料:《扩散模型-从原理到实战》第五章。

2023-10-26 23:24:13 99

原创 2023.10DataWhale扩散模型学习笔记——Week1

扩散模型是一种生成模型。生成模型的学习目标是对训练数据的分布进行建模。扩散模型的扩散过程包含前向过程和反向过程。前向过程给数据添加噪声;反向过程则是去除噪声,从随机噪声中恢复清晰数据。HuggingFace是一个开源机器学习平台。HuggingFace为我们提供了:1. 超过7万份可供模型训练的数据集(截止2023.10)2. 超过36个开源预训练模型。模型配有模型卡对该模型进行描述和使用方式的说明3. 在线推理:打开。

2023-10-20 23:20:46 97

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除