Bootstrap

Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio)

目录

前言

Ollama 介绍

Ollama 安装

如何卸载

注意(如果安装D盘看):

环境变量

Ollama 常用命令

deepseek-r1模型下载

deepseek-r1模型比较

构建可视化工具

open-webui(网页版,局域网可访问)

Chatbox AI(软件版)

Cherry Studio(软件版)

如何使用


前言

近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。

在这样的背景下,本地部署DeepSeek模型的需求也日益增加。本地部署不仅可以避免网络延迟和数据隐私问题,还能根据用户需求进行定制化优化。结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio AI等工具,用户可以轻松实现模型的本地化部署,并通过可视化面板进行高效交互。

本文将详细介绍如何在本地环境中部署DeepSeek模型,并结合deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studio实现高效、便捷的模型交互。无论你是技术爱好者、开发者,还是企业用户,本文都将为你提供清晰的部署指南,帮助你快速上手并充分利用DeepSeek的强大功能。

Ollama 介绍

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。其主要特点包括:

本地部署与离线使用:支持在本地计算机上运行,无需依赖云服务,确保数据隐私。

跨平台支持:兼容 Windows、macOS 和 Linux 系统。

丰富的模型库:提供多种预训练模型(如 Llama、DeepSeek 等),并支持用户上传自己的模型。

易于集成和使用:提供命令行工具(CLI)、Python SDK 和 RESTful API,方便与其他项目和服务集成。

性能优化:支持多 GPU 并行推理加速,能够有效管理内存和计算资源。

社区驱动:开源项目,拥有活跃的社区支持。

Ollama 安装

打开 Ollama 官方下载页面:Download Ollama on macOS

在页面中找到 Windows 版本的下载链接,点击下载安装程序(通常是一个 .exe 文件)。
 


 

下载完成后,双击下载的 .exe 文件启动安装程序。

按照安装向导的提示进行操作,包括选择安装路径、接受许可协议等。

点击“下一步”完成安装。

如何卸载

打开控制面板 ——> 卸载程序 ——>找到删除右键

注意(如果安装D盘看):

将Ollama安装到D盘可以释放C盘空间,避免系统盘拥堵,同时提升性能、增强数据安全性,并优化磁盘管理。

下载之后如果点击直接安装默认会安装在C盘。
在下载文件所在文件夹中,右键在终端打开。

输入以下命令,指定安装路径(例如安装到 D:\Ollama):

  • /DIR 参数用于指定安装路径。
  • 确保路径格式正确,路径中不要包含空格或特殊字符。
.\OllamaSetup.exe /DIR=D:\Deekseep\Ollama

环境变量

此电脑 ——> 属性 ——>高级系统设置 ——> 环境变量

Path ——> 编辑 ——> 新建 ——> 路径
 

Ollama 常用命令

启动 Ollama

ollama serve
  • 功能:启动 Ollama 服务。

创建模型

ollama create <模型名>
  • 功能:从 Modelfile 创建一个自定义模型。

显示模型信息

ollama show <模型名>
  • 功能:显示指定模型的详细信息。

运行模型

ollama run <模型名>
  • 功能:下载(如果尚未下载)并运行指定模型。

停止运行中的模型

ollama stop <模型名>
  • 功能:停止正在运行的模型。

从模型库下载模型

ollama pull <模型名>
  • 功能:从 Ollama 模型库下载指定模型。

将模型推送到模型库

ollama push <模型名>
  • 功能:将本地模型推送到模型库(需要权限)。

列出所有模型

ollama list
  • 功能:显示本地已下载的所有模型。

列出正在运行的模型

ollama ps
  • 功能:显示当前正在运行的模型。

复制模型

ollama cp <源模型名> <目标模型名>
  • 功能:复制一个模型到新的名称。

删除模型

ollama rm <模型名>
  • 功能:删除本地指定的模型。

查看帮助信息

ollama help
  • 功能:显示帮助信息,提供关于所有命令的详细说明。

查看版本信息

ollama --version
  • 功能:显示当前 Ollama 的版本信息。
     

deepseek-r1模型下载

地址:Ollama
 


 

deepseek-r1模型比较

版本

适用场景

资源需求

性能表现

1.5B

轻量级任务(短文本生成、基础问答)

资源消耗低,适合低配设备

生成质量和复杂性有限

7B/8B

中等复杂度任务(文案生成、表格处理)

需要中等硬件配置,如 RTX 3060 12G

性能与资源消耗平衡,适合中等任务

14B

复杂任务(长文本生成、数据分析)

需要较高硬件配置,如 A100

处理复杂任务能力强,适合专业场景

32B/70B

超大规模任务(语言建模、大规模训练)

需要高显存(建议≥24G)或优化后的量化版本

性能逼近更大模型,适合复杂推理

构建可视化工具

open-webui(网页版,局域网可访问)

Open-WebUI 推荐使用 Python 3.11,更高版本可能存在兼容性问题。

如果未安装 Python,请从 Python 官网下载并安装 Python 3.11。

在终端或命令提示符中运行以下命令:

pip install open-webui

安装完成后,可以通过以下命令启动 Open-WebUI:

open-webui serve

启动后,Open-WebUI 默认运行在 http://localhost:8080,可以通过浏览器访问该地址。


 


可以在设置更改,相关内容

Chatbox AI(软件版)

访问Chatbox AI官网:前往Chatbox AI官网

下载安装包:根据你的操作系统(Windows、macOS、Linux等)选择对应的安装包。

安装程序:双击下载的安装文件,按照提示完成安装。
 


 

选择语言和主题:安装完成后,启动Chatbox AI客户端,可在设置菜单中选择语言和主题。

配置API:如果需要使用特定的AI模型,可在“API配置”中输入相应的API密钥或选择预设的模型版本。

连接本地模型(如Ollama)

确保已安装并运行Ollama。

在Chatbox AI中进入设置,选择“Ollama”作为模型提供方。

设置API地址为http://localhost:11434,并选择已下载的模型(如DeepSeek)

Cherry Studio(软件版)

访问 Cherry Studio 官方网站 Cherry Studio - 全能的AI助手,根据您的操作系统(Windows、macOS 或 Linux)选择对应版本的安装包

下载完成后,双击安装包运行。

按照安装向导提示选择安装路径和语言(默认为中文)。

完成安装后,启动客户端并同意用户协议即可进入主界面

配置本地模型(如 DeepSeek)

安装本地模型(如通过 Ollama 安装 DeepSeek 模型)。

在 Cherry Studio 中点击左下角的“设置”按钮,进入“模型服务”页面。

找到对应的本地模型服务(如 Ollama),选择管理并配置本地模型。

配置云服务(如硅基流动)

注册硅基流动账号并创建 API 密钥。

在 Cherry Studio 的设置中,找到对应的云服务(如硅基流动),将 API 密钥粘贴到指定位置。

添加并检查模型(如 DeepSeek-R1 或 DeepSeek-V3),完成配置
 


 

如何使用

鼠标右键,打开终端

输入 ollama serve 开启 ollama

(可选)网页版open-webui

输入 open-webui serve 不要关掉终端,等一会打开网页,http://localhost:8080

(可选)软件版Chatbox AI,打开软件,运行
 

(可选)软件版Cherry Studio,打开软件,运行

;