LLM之Agent(二):BabyAGI的详细教程

BabyAGI是一个Python脚本,利用OpenAI和PineconeAPI创建一个任务管理系统,通过NLP处理生成新任务并存储结果。脚本通过循环执行任务,具有优先级排序功能。用户需设置API密钥和配置参数以启动和部署。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

       

图片

      BabyAGI是一个 AI 支持的任务管理系统(Python脚本),使用 OpenAI 和 Pinecone API 创建, 优先级排序和执行任务。该系统背后的主要思想是基于先前任务的结果和预定义的目标创建任务。脚本然后使用 OpenAI 的自然语言处理(NLP)能力根据目标创建新任务, 并使用 Pinecone 存储和检索任务结果以获得上下文. 这是原始的任务驱动的自驱代理(2023 年 3 月 28 日)的简化版本。

一、BabyAGI工作原理

BabyAGI的整体原理如下图所示:

图片

BabyAGI通过运行一个无限循环来工作, 该循环执行以下步骤:

  1. 从任务列表中提取第一个任务;

  2. 将任务发送给执行代理, 该代理使用 OpenAI API 根据上下文完成任务;

  3. 整理结果并将其存储在 Pinecone 中;

  4. 基于目标和前一个任务的结果创建新任务, 并根据优先级对任务列表进行排序。

execution_agent()函数使用 OpenAI API。它接受两个参数:目标和任务,然后向 OpenAI 的 API 发送一个 Prompt(包括 AI 系统任务的描述, 目标和任务本身), 该 API 结果以 string 形式返回。

task_creation_agent()函数使用 OpenAI API 根据目标和前一个任务的结果创建新任务。该函数接受 4 个参数:目标, 前一个任务的结果, 任务描述和当前任务列表。然后它向 OpenAI 的 API 发送一个 prompt, 该 API 返回一个新任务的 string 列表。函数然后将新任务作为字典列表返回, 其中每个字典包含任务的名称。

prioritization_agent()函数使用 OpenAI API 对任务列表进行重新排序。该函数接受一个参数, 即当前任务的 ID。它向 OpenAI 的 API 发送一个 prompt, 该 API 返回一个重新排序的任务列表(以数字编号)。

      最后, 脚本使用 Pinecone 存储和检索任务结果以获取上下文。脚本根据 YOUR_TABLE_NAME 变量中指定的表名创建一个 Pinecone 索引,然后 Pinecone 将任务结果与任务名称和任何其他元数据(metadata)一起存储在索引中。

二、BabyAGI如何使用

Step1 克隆仓库​​​​​​​

git clone https://github.com/yoheinakajima/babyagi.git

cd babyagi

Step2 安装所需要的库​​​​​​​

pip install -r requirements.txt
cp .env.example .env

Step3 设置OpenAI Key

    在.env文件中设置OPENAI_API_KEY、OPENAI_API_MODEL和PINECONE_API_KEY参数,在 PINECONE_ENVIRONMENT 变量中设置 Pinecone 环境,如果要使用weaviate,可以参考https://babyagi.org/docs/weaviate.html

Step4 设置存储结果的表名

指定存储结果的变量TABLE_NAME值

Step5 配置其他变量(可选)

     通过设置BABY_NAME变量名来指定BabyAGI实例名,通过设置OBJECTIVE变量名来制定任务管理系统的目标,通过设置INITIAL_TASK变量名来制定第一个任务名。

Step6 运行BabyAGI

python babyagi.py

PS:上述步骤同样也可以部署到docker中,首先需要安装docker和docker-compose,然后执行如下代码:

docker-compose up

三、BabyAGI支持的模型

      BabyAGI支持OpenAI所有模型,也支持LLaMA模型以及它的扩展模型(通过Llama.cpp),默认模型是 gpt-3.5-turbo,要使用不同的模型, 请通过 OPENAI_API_MODEL 指定, 或者使用命令行。

LLaMA

      下载最新版的Llama.cpp 并按照说明进行编译,还需要 Llama 模型的权重,然后将 llama/main 链接到 llama.cpp/main, 将 models 链接到存放 Llama 模型权重的文件夹,接着传入参数 OPENAI_API_MODEL=llama 或 -l 运行脚本。

PS:在任何情况下, 都不要在此 repo(仓库)的任何地方(包括问题, 讨论或拉取请求中)分享 IPFS, 磁力链接或任何其他模型下载链接。因为它们将被立即删除。

四、连续运行BabyAGI的警告

       BabyAGI被设计为作为任务管理系统的一部分持续运行,持续运行此脚本可能导致 API 的使用费超高, 请务必谨慎使用并后果自负。此外, 脚本需要正确设置 OpenAI 和 Pinecone API, 因此请确保在运行脚本之前已经设置了API。

参考文献:

[1] https://github.com/yoheinakajima/babyagi

[2] http://babyagi.org/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wshzd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值