1. 说明
DB-GPT 是一个开源的 AI 原生数据应用开发框架
官方地址是:https://www.yuque.com/eosphoros/dbgpt-docs/
2. 项目下载
使用源码安装 DB-GPT,DB-GPT 的 Python 项目下载地址为 https://github.com/eosphoros-ai/DB-GPT
3. 安装 huggingface 客户端
DB-GPT 需要使用 huggingface 中的模型,需要先安装 huggingface 客户端
- 安装 huggingface-cli
pip install -U huggingface_hub
- 设置环境变量(Windows)
由于 huggingface 无法直接访问,因此需要设置 huggingface 代理网站
HF_ENDPOINT https://hf-mirror.com
4. 安装 Python 依赖包
pip install -r requirements/dev-requirements.txt
pip install "dbgpt[default]"
pip install openai
依赖包安装相关内容参考 setup.py 文件
5. 代理模型准备
5.1. 安装 python 依赖包
安装阿里云模型服务灵积 DashScope 的 python 依赖包
pip install dashscope
5.2. 从 huggingface 下载 Embedding 模型
mkdir models
huggingface-cli download --resume-download GanymedeNil/text2vec-large-chinese --local-dir models/text2vec-large-chinese
执行以上命令下载 text2vec-large-chinese 模型,–local-dir 参数指定模型下载后的本地保存路径
6. 代理模型配置
以下使用的是局域网内部署的 qwen2 模型,与 OpenAI 接口格式相同
在项目根目录增加. env 文件,内容如下:
LLM_MODEL=chatgpt_proxyllm
PROXY_API_KEY=...
PROXY_SERVER_URL=...
PROXYLLM_BACKEND=qwen2-72b
各参数说明如下:
- LLM_MODEL
使用固定值 chatgpt_proxyllm,代表需要访问 OpenAI 接口,或者通过代理访问 OpenAI 接口,或者访问与 OpenAI 格式相同的其他模型接口
- PROXY_API_KEY
使用模型对应的 API Key,例如 “sk-xxx”
- PROXY_SERVER_URL
指定访问 OpenAI 接口的地址,或者通过代理访问 OpenAI 接口的地址,或者与 OpenAI 格式相同的其他模型接口的地址
例如 “http://1.2.3.4:8080/chat/completions”
- PROXYLLM_BACKEND
实际使用的模型名称,例如 “qwen2-72b”
7. 配置元数据库
默认使用本地的 sqlite,不需要额外配置
8. 启动应用
python dbgpt/app/dbgpt_server.py
9. DB-GPT 使用
10. 网页访问
启动日志中会显示
=========================== WebServerParameters ===========================
host: 0.0.0.0
port: 5670
对应的访问链接为
http://127.0.0.1:5670/
10.1. 验证模型访问
打开网页后,在首页显示的模型名称下方输入问题,点击按钮,验证模型访问
10.2. 添加数据库
在 DB-GPT 网页左侧边栏下方,点击 “Database”
点击需要访问的数据库对应类型的图标,例如 “MySQL”
点击右侧的 “Create” 按钮,输入数据库访问 URL 等信息并保存
10.3. 查询数据库数据——Chat Data
在 DB-GPT 网页左侧边栏上方,点击 “New Chat”
点击 “Chat Data”
在上方可以切换需要使用的模型及数据库
输入自然语言,从指定数据库查询对应的数据
10.4. 查询数据库表的等信息——Chat DB
在 DB-GPT 网页左侧边栏上方,点击 “New Chat”
点击 “Chat DB”
输入自然语言,从指定数据库查询对应的表结构等信息
10.5. 模型管理
在 DB-GPT 网页左侧边栏下方,点击 “Models”
显示当前已配置的模型信息及状态
点击 “Create Model” 可以创建新的模型