Bootstrap

快速搭建 OLLAMA + DeepSeek 模型并对接 Cherry Studio

快速搭建 OLLAMA + DeepSeek 模型并对接 Cherry Studio

本文将指导您在基于 GPU 的 Ubuntu 服务器上快速搭建 OLLAMA,部署 DeepSeek 模型,并接入 Cherry Studio 进行使用。


环境说明

  • GPU 服务器: GeForce RTX 2080 Ti, 16 核, 64G 内存
  • 系统: Ubuntu 24.04.1 UEFI 64bit
  • 系统盘: 150 GB
  • OLLAMA 版本: 0.5.11
  • DeepSeek 模型: deepseek-r1:7b, deepseek-r1:1.5b
  • Cherry Studio 版本: 0.9.24

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

步骤 1: 安装 OLLAMA

  1. 1.下载并安装 OLLAMA

    #Download and extract the package:
    curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
    sudo tar -C /usr -xzf ollama-linux-amd64.tgz
    
  2. 2.创建模型存储目录

    sudo mkdir -p /data/ollama/models
    sudo chown -R $USER:$USER /data/ollama/models
    
  3. 3.创建 Systemd 服务文件

    sudo tee /etc/systemd/system/ollama.service <<EOF
    [Unit]
    Description=OLLAMA Service
    After=network-online.target
    
    [Service]
    ExecStart=/usr/bin/ollama serve
    User=root
    Group=root
    Restart=always
    
    Environment="OLLAMA_MODELS=/data/ollama/models"
    Environment="OLLAMA_HOST=0.0.0.0:11434"
    
    [Install]
    WantedBy=multi-user.target
    EOF
    
  4. 4.启动 OLLAMA 服务

    sudo systemctl daemon-reload
    sudo systemctl enable ollama
    sudo systemctl start ollama
    

步骤 2: 加载 DeePSeek 模型

  1. 加载 DeePSeek 模型

    ollama pull deepseek-r1:7b
    ollama pull deepseek-r1:1.5b
    
  2. 验证模型

    ollama list
    

在这里插入图片描述

步骤 3: 对接 Cherry Studio

  1. 安装 Cherry Studio

    • 下载并安装 Cherry Studio 0.9.24 版本。
  2. 配置模型

    • 打开 Cherry Studio,进入 模型管理 页面。
    • 输入 OLLAMA 服务地址:http://192.168.100.2:11434
    • 选择 deepseek-r1:7bdeepseek-r1:1.5b 模型。
  3. 开始使用

    • 返回 Cherry Studio 主界面,即可与模型进行交互。

在这里插入图片描述

总结

通过以上步骤,您已成功在 GPU 服务器上部署 OLLAMA,加载 DeePSeek 模型,并接入 Cherry Studio。


在这里插入图片描述

;