前言
最近DeepseekAI大模型异常火爆,我也看了很多关于Deepseek部署的文章,要么讲的太复杂,要么就是操作不成功。其实不管是免费也好还是解决服务器繁忙也罢。本质都是本地部署,本地部署本身就非常简单,只需要三步环境就可以搭建起来,剩下的就是配置。跟着我下面的步骤操作你也可以部署成功。
目录
1.Ollama官方下载
官方下载链接:https://ollama.com/download
进入官网根据自己的电脑系统型号选择版本,我是windows系统所以我选择第三个(如图红框所示)。选择好对应版本后点击下载即可(如图箭头所示)。
下载完后点击打开文件选择Install即可自动安装Ollama。
2.安装Deepseek-R1大模型
a.
进入刚才的官网:https://ollama.com/download
选择左上角的Models(模型)。
b.
进入页面后选择deepseek-r1.
c.
接着可以选择模型的版本:如图所示红色方框内是模型的版本号,点击红色箭头处的下标可以选择其他版本,选择好版本之后点击绿色箭头处复制绿色方框内的命令即可。
注意:Deepseek R1有多个版本1.5B Qwen、8B Llama、14B Qwen、32B Qwen、70B Llama。根据自己电脑的配置来选择合适的版本。要不然会影响电脑性能,启个ollam就很卡。
建议配置:
设备级别 | 模型版本 | 最低配置要求 |
---|---|---|
入门级设备 | 1.5B | 4GB 内存 + 核显 |
进阶推荐 | 7B | 8GB 内存 + 4GB 显存 |
高性能设备 | 32B | 32GB 内存 + 12GB 显存 |
d.
复制好命令之后,按下键盘的ctrl+win进入命令行界面。先查看是否真确安装Ollama,输入命令ollama -v回车如果出现ollama版本号即说明安装成功。
接着将刚才在官网复制的命令粘贴进去,然后回车执行即可,后台就会自动加载大模型到本地,只需要等待进度条加载玩,当出现success时Deep seek-R1大模型就本地部署成功了。
接下来可以进行提问测试了:
输入/bye可以退出
当想要再次开启对话时,可以输入ollama list
接着复制想要打开的模型的名字
输入ollama runn 粘贴名字,按回车即可进入对话
3.美化使用界面
我知道在命令行使用该模型并不是最好的体验,所以接下来我们要做一个美化的操作界面。
进入Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
下载Chatbox或者使用网页版
点击设置选择OLLAMA APL 接着再选择已下载的模型
注意!!!一定一定一定要参考教程操作 确保远程Ollama服务能够远程连接
操作完成之后点击保存即可
接下来就可以畅快的体验Deepseek-R1大模型的便捷性了。