不要再只知道 Bing 了,国内最火的 AI 搜索 API 博查,让你分分钟复刻联网 DeepSeek

在 AI 搜索领域,Bing 已经不再是唯一的选择。国内的博查 AI 开放平台凭借其强大的功能和灵活的部署方式,正在成为越来越多开发者和用户的首选。今天,就让我们来看看如何利用博查的联网功能,结合 Ollama 和 OpenWebUI,快速搭建一个本地化的联网 DeepSeek。

为什么选择博查?

博查 AI 开放平台提供了强大的 Web Search API 和 Semantic Reranker API,能够为 AI 应用提供高质量的搜索结果。它基于多模态混合搜索与语义排序技术,适用于 AI Agents、AI Chatbots、AI Search 以及各类 RAG 应用的线上应用或数据冷启动。博查在数据安全、成本控制及内容合规性方面表现卓越,确保数据不出海并符合国内安全规范。

本地部署 DeepSeek 的步骤

1. 安装 Ollama

Ollama 是一个开源工具,用于在个人设备上高效运行大型语言模型(LLMs),无需依赖云端。以下是安装步骤:

  • Windows:从 Ollama 官网下载适合 Windows 系统的版本并安装。

  • Linux

    bash复制

    curl -fsSL https://ollama.com/install.sh | sh
  • MacOS

    bash复制

    curl -fsSL https://ollama.com/install.sh | sh

安装完成后,通过以下命令检验是否成功:

bash复制

ollama -v

2. 下载并运行 DeepSeek 模型

访问 Ollama 的模型库页面,选择合适的 DeepSeek 模型版本(如 32B 版本适合 RTX 4090 显卡),并复制对应的运行指令。然后在命令行窗口中执行该指令以下载和运行模型。

例如,运行以下命令下载并运行 DeepSeek-R1 的 32B 版本:

bash复制

ollama pull deepseek-r1:32b
ollama run deepseek-r1:32b

3. 配置 OpenWebUI

OpenWebUI 是一个功能丰富的自托管 AI 平台,支持 Ollama 和 OpenAI 兼容 API。以下是配置步骤:

  1. 下载代码

    bash复制

    git clone https://github.com/BochaAI/open-webui-Bocha.git
    cd open-webui-Bocha/
  2. 构建后端环境

    bash复制

    conda create --name webui python=3.11
    conda activate webui
    cd ./backend
    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
  3. 构建前端环境

    bash复制

    npm config set registry=https://registry.npmmirror.com
    npm i
    npm run build
  4. 启动 OpenWebUI

    • Linux

      bash复制

      bash start.sh
    • Windows

      bash复制

      start_windows.bat

启动成功后,访问 http://localhost:8080 即可使用 OpenWebUI。

4. 集成博查联网搜索

  1. 获取博查 API Key:访问 博查开放平台,登录后获取 API Key。

  2. 配置联网搜索:在 OpenWebUI 的管理员面板中,进入 设置 -> 联网搜索,选择 bocha 并输入 API Key,保存设置。

  3. 启用联网搜索:在对话中启用联网搜索功能,即可在当前对话中使用博查的联网搜索能力。

总结

通过上述步骤,你可以在本地快速搭建一个联网的 DeepSeek 环境,结合博查的强大搜索能力,实现更高效、更安全的 AI 应用部署。无论是企业级应用还是个人开发,博查都提供了灵活的解决方案,让你轻松掌握 AI 搜索的主动权。

### OpenWebUI 本地模型网络连接配置 对于希望让OpenWebUI中的本地模型能够通过网络被其他设备访问的情况,通常涉及几个方面的设置调整。当在Docker环境中部署OpenWebUI时,确保容器可以正确映射到主机端口是非常重要的[^1]。 #### Docker端口映射配置 为了使得外部网络能访问到运行于Docker容器内的OpenWebUI服务及其关联的大模型应用,需保证启动Docker容器时指定了正确的端口映射参数。例如,在命令行中使用`-p hostPort:containerPort`的形式指定端口号: ```bash docker run -d -p 3000:3000 openwebui/image-name ``` 此操作会将宿主机的3000端口绑定至容器内部的服务监听地址,从而允许来自外界对该端口发起请求以访问OpenWebUI界面及调用其背后的模型API接口[^4]。 #### 修改OLLAMA_BASE_URL环境变量 如果遇到OpenWebUI无法识别位于同一台机器上的Ollama模型的问题,则可能是因为默认情况下两者之间的通信路径未得到恰当设定。此时可以通过修改OLLAMA_BASE_URL这一环境变量来指向实际存储有这些模型的位置。这一步骤同样适用于想要改变远程服务器上模型位置的情形。 #### 跨域资源共享(CORS) 为了让不同源(即不同的协议、域名或端口)下的客户端顺利获取资源,还需要考虑跨域资源共享策略。可以在启动OpenWebUI之前适当放宽CORS限制,比如通过编辑应用程序配置文件或者是在反向代理层面上做相应处理,以此保障合法范围内的跨站HTTP请求得以成功执行[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值