Bootstrap

不要再只知道 Bing 了,国内最火的 AI 搜索 API 博查,让你分分钟复刻联网 DeepSeek

在 AI 搜索领域,Bing 已经不再是唯一的选择。国内的博查 AI 开放平台凭借其强大的功能和灵活的部署方式,正在成为越来越多开发者和用户的首选。今天,就让我们来看看如何利用博查的联网功能,结合 Ollama 和 OpenWebUI,快速搭建一个本地化的联网 DeepSeek。

为什么选择博查?

博查 AI 开放平台提供了强大的 Web Search API 和 Semantic Reranker API,能够为 AI 应用提供高质量的搜索结果。它基于多模态混合搜索与语义排序技术,适用于 AI Agents、AI Chatbots、AI Search 以及各类 RAG 应用的线上应用或数据冷启动。博查在数据安全、成本控制及内容合规性方面表现卓越,确保数据不出海并符合国内安全规范。

本地部署 DeepSeek 的步骤

1. 安装 Ollama

Ollama 是一个开源工具,用于在个人设备上高效运行大型语言模型(LLMs),无需依赖云端。以下是安装步骤:

  • Windows:从 Ollama 官网下载适合 Windows 系统的版本并安装。

  • Linux

    bash复制

    curl -fsSL https://ollama.com/install.sh | sh
  • MacOS

    bash复制

    curl -fsSL https://ollama.com/install.sh | sh

安装完成后,通过以下命令检验是否成功:

bash复制

ollama -v

2. 下载并运行 DeepSeek 模型

访问 Ollama 的模型库页面,选择合适的 DeepSeek 模型版本(如 32B 版本适合 RTX 4090 显卡),并复制对应的运行指令。然后在命令行窗口中执行该指令以下载和运行模型。

例如,运行以下命令下载并运行 DeepSeek-R1 的 32B 版本:

bash复制

ollama pull deepseek-r1:32b
ollama run deepseek-r1:32b

3. 配置 OpenWebUI

OpenWebUI 是一个功能丰富的自托管 AI 平台,支持 Ollama 和 OpenAI 兼容 API。以下是配置步骤:

  1. 下载代码

    bash复制

    git clone https://github.com/BochaAI/open-webui-Bocha.git
    cd open-webui-Bocha/
  2. 构建后端环境

    bash复制

    conda create --name webui python=3.11
    conda activate webui
    cd ./backend
    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
  3. 构建前端环境

    bash复制

    npm config set registry=https://registry.npmmirror.com
    npm i
    npm run build
  4. 启动 OpenWebUI

    • Linux

      bash复制

      bash start.sh
    • Windows

      bash复制

      start_windows.bat

启动成功后,访问 http://localhost:8080 即可使用 OpenWebUI。

4. 集成博查联网搜索

  1. 获取博查 API Key:访问 博查开放平台,登录后获取 API Key。

  2. 配置联网搜索:在 OpenWebUI 的管理员面板中,进入 设置 -> 联网搜索,选择 bocha 并输入 API Key,保存设置。

  3. 启用联网搜索:在对话中启用联网搜索功能,即可在当前对话中使用博查的联网搜索能力。

总结

通过上述步骤,你可以在本地快速搭建一个联网的 DeepSeek 环境,结合博查的强大搜索能力,实现更高效、更安全的 AI 应用部署。无论是企业级应用还是个人开发,博查都提供了灵活的解决方案,让你轻松掌握 AI 搜索的主动权。

;