Bootstrap

DeepSeek:Ubuntu安装Ollama服务以实现远程访问

        在自己的 GPU 服务器上搭建 DeepSeek。所需要的工具包括 OllamaChatbox 等。

目录

1 安装 Ollama(Ubuntu 平台)

1.1 下载 Ollama for linux

1.2 安装 Ollama

1.3 创建 systemd 服务文件

1.4 启动 Ollama

1.5 安装并运行 DeepSeek

1.6 Ollama 命令

 1.7 systemctl 服务

2 安装 Chatbox(Windows平台)

2.1 安装 Chatbox

2.2 配置


1 安装 Ollama(Ubuntu 平台)

1.1 下载 Ollama for linux

        Ollama 下载网址:Download Ollama on Linux。官方提供了通过 curl 下载的方式:

curl -fsSL https://ollama.com/install.sh | sh

        如果没有 curl,又不想安装,可以通过手动安装:

1.2 安装 Ollama

        将上述下载到的 ollama-linux-amd64-rocm.tgz 文件复制到服务器上:

(base) cuifulai@amax:~/Downloads$ ls
Anaconda3-5.3.1-Linux-x86_64.sh  ollama-linux-amd64.tgz  Pypi

        使用 sudo 权限安装软件:

root@amax:/home/cuifulai/Downloads# sudo tar -C /usr -xzf ollama-linux-amd64.tgz

1.3 创建 systemd 服务文件

        查看 ollama 安装路径:

root@amax:/etc/systemd/system# whereis ollama
ollama: /usr/bin/ollama /usr/lib/ollama

这里的路径 /usr/bin/ollama 后续会用到。

        在 /etc/systemd/system/ 目录下创建 ollama.service 文件:

root@amax:/etc/systemd/system# vim ollama.service

        内容如下:

[Unit]

Description=Ollama Service

After=network-online.target

[Service]

Environment="OLLAMA_HOST=0.0.0.0"

Environment="OLLAMA_ORIGINS=*"

Environment="OLLAMA_MODELS=/data/ollama/.ollama/models"

ExecStart=/usr/bin/ollama serve

User=root

Group=root

Restart=always

RestartSec=3

[Install]

WantedBy=default.target

  • Environment="OLLAMA_HOST=0.0.0.0" 和 Environment="OLLAMA_ORIGINS=*" 是使 Ollama 服务能够对外提供服务的两个环境变量(Ollama 默认仅在本地运行);
  • Environment="OLLAMA_MODELS=/data/ollama/.ollama/models" 是自定义的模型下载路径;
  • ExecStart=/usr/bin/ollama serve,这里的 /usr/bin/ollama 即为 ollama安装路径。

1.4 启动 Ollama

        执行命令:ollama serve

root@amax:/etc/systemd/system# ollama serve
Couldn't find '/root/.ollama/id_ed25519'. Generating new private key.
Your new public key is:

more...

1.5 安装并运行 DeepSeek

        在新的命令窗口,执行命令:ollama run deepseek-r1:14b

(base) cuifulai@amax:~$ ollama run deepseek-r1:14b
pulling manifest
pulling 6e9f90f02bb3... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 9.0 GB
pulling 369ca498f347... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏  148 B
pulling 3c24b0c80794... 100% ▕█████████████████████████████████████████████████████████████████████████████████████████▏  488 B
verifying sha256 digest
writing manifest
success
more...

上述过程在下载模型到自定义的路径:/data/ollama/.ollama/models

        后续执行同样的 run 任务时,将直接启动 chat

(base) cuifulai@amax:~$ ollama run deepseek-r1:14b
>>> Send a message (/? for help)

1.6 Ollama 命令

(base) cuifulai@amax:~$ ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

 1.7 systemctl 服务

  • 重启 Ollama 服务:
systemctl daemon-reload
systemctl restart ollama
  • 设置开机自启
systemctl enable ollama
  • 取消开机自启
systemctl disable ollama
  • 查看服务状态
systemctl status ollama

2 安装 Chatbox(Windows平台)

        远程服务器已启用,此时可远程(同一局域网内)获取 DeepSeek 服务。

2.1 安装 Chatbox

        Chatbox 下载网址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

2.2 配置

        API 域名为:http://xxx.xxx.xxx.xxx:11434。其中 IP 为服务器地址,端口为 Ollama 服务的端口(默认为 11434)。需要注意防火墙是否允许该端口。

         此时,即可从自建的 DeepSeek 获取服务。

注: deepseek-r1:14b 大概需要 10G GPU 显存。

;