在自己的 GPU 服务器上搭建 DeepSeek。所需要的工具包括 Ollama、Chatbox 等。
目录
1 安装 Ollama(Ubuntu 平台)
1.1 下载 Ollama for linux
Ollama 下载网址:Download Ollama on Linux。官方提供了通过 curl 下载的方式:
curl -fsSL https://ollama.com/install.sh | sh
如果没有 curl,又不想安装,可以通过手动安装:
- AMD GPU install:https://ollama.com/download/ollama-linux-amd64-rocm.tgz
- ARM64 install:https://ollama.com/download/ollama-linux-arm64.tgz
1.2 安装 Ollama
将上述下载到的 ollama-linux-amd64-rocm.tgz 文件复制到服务器上:
(base) cuifulai@amax:~/Downloads$ ls
Anaconda3-5.3.1-Linux-x86_64.sh ollama-linux-amd64.tgz Pypi
使用 sudo 权限安装软件:
root@amax:/home/cuifulai/Downloads# sudo tar -C /usr -xzf ollama-linux-amd64.tgz
1.3 创建 systemd 服务文件
查看 ollama 安装路径:
root@amax:/etc/systemd/system# whereis ollama
ollama: /usr/bin/ollama /usr/lib/ollama
这里的路径 /usr/bin/ollama 后续会用到。
在 /etc/systemd/system/ 目录下创建 ollama.service 文件:
root@amax:/etc/systemd/system# vim ollama.service
内容如下:
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/data/ollama/.ollama/models"
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
[Install]
WantedBy=default.target
- Environment="OLLAMA_HOST=0.0.0.0" 和 Environment="OLLAMA_ORIGINS=*" 是使 Ollama 服务能够对外提供服务的两个环境变量(Ollama 默认仅在本地运行);
- Environment="OLLAMA_MODELS=/data/ollama/.ollama/models" 是自定义的模型下载路径;
- ExecStart=/usr/bin/ollama serve,这里的 /usr/bin/ollama 即为 ollama安装路径。
1.4 启动 Ollama
执行命令:ollama serve
root@amax:/etc/systemd/system# ollama serve
Couldn't find '/root/.ollama/id_ed25519'. Generating new private key.
Your new public key is:
more...
1.5 安装并运行 DeepSeek
在新的命令窗口,执行命令:ollama run deepseek-r1:14b
(base) cuifulai@amax:~$ ollama run deepseek-r1:14b
pulling manifest
pulling 6e9f90f02bb3... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 9.0 GB
pulling 369ca498f347... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 148 B
pulling 3c24b0c80794... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 488 B
verifying sha256 digest
writing manifest
success
more...
上述过程在下载模型到自定义的路径:/data/ollama/.ollama/models。
后续执行同样的 run 任务时,将直接启动 chat。
(base) cuifulai@amax:~$ ollama run deepseek-r1:14b
>>> Send a message (/? for help)
1.6 Ollama 命令
(base) cuifulai@amax:~$ ollama
Usage:
ollama [flags]
ollama [command]Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any commandFlags:
-h, --help help for ollama
-v, --version Show version information
1.7 systemctl 服务
- 重启 Ollama 服务:
systemctl daemon-reload
systemctl restart ollama
- 设置开机自启
systemctl enable ollama
- 取消开机自启
systemctl disable ollama
- 查看服务状态
systemctl status ollama
2 安装 Chatbox(Windows平台)
远程服务器已启用,此时可远程(同一局域网内)获取 DeepSeek 服务。
2.1 安装 Chatbox
Chatbox 下载网址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
2.2 配置
API 域名为:http://xxx.xxx.xxx.xxx:11434。其中 IP 为服务器地址,端口为 Ollama 服务的端口(默认为 11434)。需要注意防火墙是否允许该端口。
此时,即可从自建的 DeepSeek 获取服务。
注: deepseek-r1:14b 大概需要 10G GPU 显存。