1 功能
- 整体功能,想解决什么问题
单独使用 ChatGPT 时,只提供基本的聊天,无法实现具体的功能,如果想提供某种功能,则需要结合程序实现。AutoGPT目标是建立和使用 AI Agent,设定一个或多个目标,AutoGPT自动拆解成相对应的任务,并派出 Agent 执行任务直到目标达成,无需编程。 - 当前解决了什么问题,哪些问题解决不了
形成了较为完善的整体流程。在解决具体问题过程中,还需要人的进一步参与,仅使用 GPT 和简单的交互,还是不足以解决一般情况下遇到的问题。 - 提供哪些功能点,其中哪些是刚需
建立Agent和整体调用流程是其核心功能。个人感觉这个工具并不求大而全,基本思路都是围绕其主功能扩展。除主功能以外,它还提供了:黑客马拉松,benchmark 基线 等功能,供二次开发者使用。 - 用户使用难度,操作逻辑是否过于复杂
使用 docker 方式运行比较简单,只需要设置env,基本上是开箱即用;使用其前端需要进一步设置。具体工作时,虽然都是文本交互,但还是需要一些学习成本。
2 技术栈
- 技术栈是什么
- 前端使用 Dart+Flutter 开发,修改其前端有一定学习成本。
- Python 包管理使用 Poetry,依赖包在 pyproject.toml 中设置。
- LLM主要支持 OPENAI 的 GPT,使用的 openai 的 api 也比较旧。
- 部署使用 docker + docker-compose
- 主循环入口:autogpt/autogpt/app/main.py
- 现有底层工具消化了哪些常用功能
- 对外部强依赖较少,在配置文件env中可查看其可选组件
- 代码分析(使用cloc工具统计)
- docker 大小 1.99G
- 代码下载 304M,其中主要占空间的是 .git 和 benchmark/reports/
- 代码量(不计 json 文件和生成的js),其中 Python 24032行,dart 4590行,即以 Python 代码为主,包含少量前端界面;代码量不小,Python代码难度不高。
- 核心代码:aotogpt/autogpt/autogpt目录下的python文件;其中 core 目录内容相对比较多,它的目标是重构 autogpt,尚在开发之中。
3 商业模式
AutoGPT 首先提供了一个完整的架构和可用的全功能。但它不是一个已经把各种问题解决的很好,拿来就能用的具体工具。从当前版本看,它更像是一个以架构为主,提供平台,希望大家开发和调优专门解决具体问题的 agent。并提供展示和比较的平台(黑客马拉松:Hackathon),各种 benchmark 基线(排行榜:https://leaderboard.agpt.co/),评测,底层结构和基本工具。
鼓励大家基于其架构开发解决具体问题的 agent,从而建立一种以Agent为核心的用大模型解决具体问题的生态。
4 安装
4.1 build docker image
$ git clone
$ cd AutoGPT/autogpts/autogpt
$ cp .env.template .env
$ vi .env # 至少修改 OPENAI_API_KEY, OPENAI_API_BASE_URL,建议修改 LLM 以节省费用
$ docker build --build-arg HTTP_PROXY=xxx --build-arg HTTPS_PROXY=xxx . -t auto-gpt
4.2 运行
$ docker run --rm --env-file .env -p 8000:8000 -e HTTPS_PROXY="xxx" -e HTTPS_PROXY="xxx" -it auto-gpt run
4.3 使用体会
如果上述安装运行正常,则出现提示,让用户输入项目描述,然后程序将工作划分为多个步骤,每一步与用户确认,在交互过程中执行。
5 资料
Document: https://docs.agpt.co/