自动查文献+写代码+跑数据+出报告!港大开源 Auto Deep Research 搞定科研全流程

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🧠 “实验室经费在燃烧?这个开源项目如何用三个AI分身搞定科研全流程!”

大家好,我是蚝油菜花。当你还在:

  • 🔧 手动整理上百篇文献摘要到凌晨3点
  • 💸 为GPT-4的API账单心惊肉跳
  • 🤯 在Python脚本和Excel表格间反复横跳…

Auto-Deep-Research 带来了变革性解决方案!这个由港大黄超教授团队开源的多Agent系统,集成了:

  • ✅ 文献蜘蛛:自动抓取最新研究成果并生成综述
  • ✅ 代码医师:debug数据分析脚本+自动优化可视化
  • ✅ 报告管家:按期刊模板一键生成完整论文

依托 模块化调度器 ,这些AI分身能:

  • 🔄 自主协商任务分配(比如先爬数据再建模)
  • 💡 支持4大类LLM随时切换(Anthropic/OpenAI/Mistral/HF)
  • 📦 容器化部署避免环境依赖噩梦

现在,让我们一起揭开这个开源科研利器 Auto-Deep-Research 的技术面纱!

🚀 快速阅读

Auto-Deep-Research 是一个专注于复杂任务自动化的开源 AI 助理。

  1. 核心功能:支持深度研究、多格式文件解析、网络搜索与编程实现。
  2. 技术原理:采用模块化多 Agent 架构,协同完成互联网信息搜索、编程调试与文件处理任务。

Auto-Deep-Research 是什么

Auto-Deep-Research

Auto-Deep-Research 是香港大学黄超教授实验室开源的一款全自动个人 AI 助理,旨在成为 OpenAI Deep Research 的开源替代方案。它基于 AutoAgent 框架开发,采用模块化的多 Agent 架构设计,包含 Web Agent(互联网信息搜索)、Coding Agent(编程实现与调试)和 Local File Agent(文件解析与理解)。这些 Agent 通过核心调度器(Orchestrator Agent)协同工作,为用户提供高效的任务自动化处理能力。

该项目专注于复杂任务的自动化处理,如文件解析、数据分析与可视化,并能够生成详细的报告。Auto-Deep-Research 兼容多种大语言模型(LLM),包括 Anthropic、OpenAI、Mistral 和 Hugging Face 等,同时支持导入浏览器 Cookies,以更好地访问特定网站。

此外,Auto-Deep-Research 以其高性价比著称,仅基于 Claude-3.5-Sonnet 构建,大幅降低了使用成本,是研究人员、教育工作者和企业用户的理想选择。

Auto-Deep-Research 的主要功能

  • 深度研究功能:专注于复杂任务的自动化处理,如文件解析、网络搜索、数据分析与可视化,生成高质量的研究报告。
  • 多语言模型支持:兼容多种大语言模型(LLM),包括 Anthropic、OpenAI、Mistral、Hugging Face 等。
  • 高性价比:基于 Claude-3.5-Sonnet 构建,显著降低使用成本。
  • 社区驱动改进:根据社区反馈增加了如一键启动和增强的 LLM 兼容性等功能。
  • 易于部署:支持通过 Conda 环境或 Docker 安装,提供详细的启动配置选项。

Auto-Deep-Research 的技术原理

  • 多 Agent 架构:包含 Web Agent(互联网信息搜索)、Coding Agent(编程实现与调试)和 Local File Agent(文件解析与理解),通过核心调度器(Orchestrator Agent)协同工作。
  • Web Agent:专注于互联网信息的无障碍访问和深度搜索。
  • Coding Agent:负责编程实现和调试,具备严密的逻辑分析能力。
  • Local File Agent:致力于多格式文件的解析和内容理解。

如何运行 Auto-Deep-Research

下面将指导你如何安装 Docker、配置 API 密钥以及启动 Auto-Deep-Research。同时将展示如何通过不同 LLM 提供商运行 Auto-Deep-Research,并提供一些实用技巧。

1. Docker 安装

Auto-Deep-Research 使用 Docker 来容器化交互环境,因此请先安装Docker。你无需手动拉取预构建的镜像,因为 Auto-Deep-Research 会根据你的机器架构自动拉取对应的镜像。

2. API 密钥设置

创建一个环境变量文件(例如 .env),并在其中设置你计划使用的 LLM 的 API 密钥。并非所有 LLM 的 API 密钥都是必需的,根据你的需求进行设置即可。

示例 .env 文件内容:

ANTHROPIC_API_KEY=your_anthropic_api_key
OPENAI_API_KEY=your_openai_api_key

3. 启动 Auto-Deep-Research

命令选项

运行 auto deep-research 命令以启动 Auto-Deep-Research。以下是一些常用配置选项:

  1. --container_name:指定 Docker 容器的名称(默认值:deepresearch)。
  2. --port:指定容器使用的端口(默认值:12346)。
  3. COMPLETION_MODEL:指定要使用的 LLM 模型,需遵循Litellm的命名规范(默认值:claude-3-5-sonnet-20241022)。
  4. DEBUG:启用调试模式以获取详细日志(默认值:False)。
  5. API_BASE_URL:指定 LLM 提供商的 API 基础 URL(默认值:None)。
  6. FN_CALL:启用函数调用功能(默认值:None)。大多数情况下可以忽略此选项,因为我们已经根据模型名称设置了默认值。

使用不同 LLM 提供商启动 Auto-Deep-Research

Anthropic

设置 API 密钥

.env 文件中设置 ANTHROPIC_API_KEY

ANTHROPIC_API_KEY=your_anthropic_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

auto deep-research

默认模型为 claude-3-5-sonnet-20241022

OpenAI

设置 API 密钥

.env 文件中设置 OPENAI_API_KEY

OPENAI_API_KEY=your_openai_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=gpt-4o auto deep-research

Mistral

设置 API 密钥

.env 文件中设置 MISTRAL_API_KEY

MISTRAL_API_KEY=your_mistral_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=mistral/mistral-large-2407 auto deep-research

Gemini - Google AI Studio

设置 API 密钥

.env 文件中设置 GEMINI_API_KEY

GEMINI_API_KEY=your_gemini_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=gemini/gemini-2.0-flash auto deep-research

Huggingface

设置 API 密钥

.env 文件中设置 HUGGINGFACE_API_KEY

HUGGINGFACE_API_KEY=your_huggingface_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=huggingface/meta-llama/Llama-3.3-70B-Instruct auto deep-research

Groq

设置 API 密钥

.env 文件中设置 GROQ_API_KEY

GROQ_API_KEY=your_groq_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=groq/deepseek-r1-distill-llama-70b auto deep-research

OpenAI-Compatible Endpoints(例如 Grok)

设置 API 密钥

.env 文件中设置 OPENAI_API_KEY

OPENAI_API_KEY=your_api_key_for_openai_compatible_endpoints
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=openai/grok-2-latest API_BASE_URL=https://api.x.ai/v1 auto deep-research

OpenRouter(例如 DeepSeek-R1)

我们建议暂时使用 OpenRouter 作为 DeepSeek-R1 的 LLM 提供商,因为官方 API 的效率较低。

设置 API 密钥

.env 文件中设置 OPENROUTER_API_KEY

OPENROUTER_API_KEY=your_openrouter_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=openrouter/deepseek/deepseek-r1 auto deep-research

DeepSeek

设置 API 密钥

.env 文件中设置 DEEPSEEK_API_KEY

DEEPSEEK_API_KEY=your_deepseek_api_key
启动命令

运行以下命令启动 Auto-Deep-Research:

COMPLETION_MODEL=deepseek/deepseek-chat auto deep-research

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值