Bootstrap

DeepSeek-R1大模型一键部署安装教程by腾讯云HAI,0基础免安装

基于腾讯云一键部署DeepSeek-R1大模型教程,本文腾讯云百科txybk.com是基于腾讯云高性能应用服务HAI,HAI预装DeepSeek-R1 1.5B及7B模型环境,需要更大尺寸模型(14B、32B、70B)文章后面有教程,支持思维链输出,HAI需要付费,可领券 txy.wiki 免费领腾讯云最新补贴券,详细流程如下:

一键部署DeepSeek-R1大模型教程

先打开高性能应用服务HAI:txybk.com/go/hai 如下图:

腾讯云高性能应用服务HAI

腾讯云高性能应用服务HAI

点击“立即使用”,选择“社区应用”,可以看到“DeepSeek-R1”,如下图:

预装DeepSeek-R1 1.5B及7B模型环境,支持思维链输出

预装DeepSeek-R1 1.5B及7B模型环境,支持思维链输出

  • 计费模式:可以选择按量计费或包年包月,按量计费是按小时计费,先使用后付费;包年包月是预付费,先付费再使用,至少买1个月。
  • 地域:目前腾讯云HAI地域支持广州、南京、东京、北京、新加坡、硅谷、法兰克福、首尔、上海和重庆,大家根据所在地区,就近选择。
  • 算力方案:GPU基础型、GPU进阶型、两卡GPU基础型和两卡GPU进阶型,方案不同显存、算力、CPU和内存配置也不同,运行DeepSeek-R1大模型,腾讯云百科选择了GPU进阶型。
  • 云硬盘:200GB起步,默认提供80GB免费空间。
  • 网络:每台实例免费提供500GB流量包,默认10Mbps带宽,每月刷新。

勾选协议,点立即购买,即可完成。

HAI已预装了DeepSeek-R1 1.5B及7B模型预装环境(DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B),不需要用户手动部署,创建时选择DeepSeek-R1应用就行了,适合新手的傻瓜教程。

DeepSeek-R1的使用

HAI创建完成后,开发者可通过站内信获取密码,选择可视化界面(ChatbotUI)或命令行(JupyterLab)直接调用:

可视化界面(ChatbotUI)

可视化界面调用方法:在HAI控制台选择【算力连接】–【ChatbotUI】在新窗口中可根据页面指引操作,如下图:

HAI算力连接

HAI算力连接

命令行(JupyterLab)

命令行调用方法:在HAI控制台选择【算力连接】–【JupyterLab】,新建一个Terminal,输入 ollama run deepseek-r1 命令加载默认的1.5b模型。进入JupyterLab,在terminal中输入如下命令行,即可开始使用:

运行1.5B命令:

ollama run deepseek-r1:1.5b

如果1.5B模型无法满足需求,可在命令行后输入7B/8B/14B等参数指令,自由切换至对应规格的模型。

运行7B命令:

ollama run deepseek-r1:7b

更大尺寸的DeepSeek-R1模型部署方式

HAI预转了DeepSeek-R1 1.5B及7B模型,如果需要更大尺寸的模型,执行一下命令:

DeepSeek-R1-Distill-Llama-8B:

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B:

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B(对显存大小要求较高,请选择更高配置的机型,以免溢出):

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B(对显存大小要求较高,请选择更高配置的机型,以免溢出):

ollama run deepseek-r1:70b

更多关于高性能应用服务HAI的使用说明及费用,请移步到HAI官方页面查看 txybk.com/go/hai

;