在 AI 搜索领域,Bing 已经不再是唯一的选择。国内的博查 AI 开放平台凭借其强大的功能和灵活的部署方式,正在成为越来越多开发者和用户的首选。今天,就让我们来看看如何利用博查的联网功能,结合 Ollama 和 OpenWebUI,快速搭建一个本地化的联网 DeepSeek。
为什么选择博查?
博查 AI 开放平台提供了强大的 Web Search API 和 Semantic Reranker API,能够为 AI 应用提供高质量的搜索结果。它基于多模态混合搜索与语义排序技术,适用于 AI Agents、AI Chatbots、AI Search 以及各类 RAG 应用的线上应用或数据冷启动。博查在数据安全、成本控制及内容合规性方面表现卓越,确保数据不出海并符合国内安全规范。
本地部署 DeepSeek 的步骤
1. 安装 Ollama
Ollama 是一个开源工具,用于在个人设备上高效运行大型语言模型(LLMs),无需依赖云端。以下是安装步骤:
-
Windows:从 Ollama 官网下载适合 Windows 系统的版本并安装。
-
Linux:
bash复制
curl -fsSL https://ollama.com/install.sh | sh
-
MacOS:
bash复制
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,通过以下命令检验是否成功:
bash复制
ollama -v
2. 下载并运行 DeepSeek 模型
访问 Ollama 的模型库页面,选择合适的 DeepSeek 模型版本(如 32B 版本适合 RTX 4090 显卡),并复制对应的运行指令。然后在命令行窗口中执行该指令以下载和运行模型。
例如,运行以下命令下载并运行 DeepSeek-R1 的 32B 版本:
bash复制
ollama pull deepseek-r1:32b
ollama run deepseek-r1:32b
3. 配置 OpenWebUI
OpenWebUI 是一个功能丰富的自托管 AI 平台,支持 Ollama 和 OpenAI 兼容 API。以下是配置步骤:
-
下载代码:
bash复制
git clone https://github.com/BochaAI/open-webui-Bocha.git cd open-webui-Bocha/
-
构建后端环境:
bash复制
conda create --name webui python=3.11 conda activate webui cd ./backend pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
-
构建前端环境:
bash复制
npm config set registry=https://registry.npmmirror.com npm i npm run build
-
启动 OpenWebUI:
-
Linux:
bash复制
bash start.sh
-
Windows:
bash复制
start_windows.bat
-
启动成功后,访问 http://localhost:8080
即可使用 OpenWebUI。
4. 集成博查联网搜索
-
获取博查 API Key:访问 博查开放平台,登录后获取 API Key。
-
配置联网搜索:在 OpenWebUI 的管理员面板中,进入
设置 -> 联网搜索
,选择bocha
并输入 API Key,保存设置。 -
启用联网搜索:在对话中启用联网搜索功能,即可在当前对话中使用博查的联网搜索能力。
总结
通过上述步骤,你可以在本地快速搭建一个联网的 DeepSeek 环境,结合博查的强大搜索能力,实现更高效、更安全的 AI 应用部署。无论是企业级应用还是个人开发,博查都提供了灵活的解决方案,让你轻松掌握 AI 搜索的主动权。