Bootstrap

2个安装包1条命令搞定:Deekseep-R1最佳本地部署+知识库+联网搜索

前言

最近DeepseekAI大模型异常火爆,我也看了很多关于Deepseek部署的文章,要么讲的太复杂,要么就是操作不成功。其实不管是免费也好还是解决服务器繁忙也罢。本质都是本地部署,本地部署本身就非常简单,只需要三步环境就可以搭建起来,剩下的就是配置。跟着我下面的步骤操作你也可以部署成功。

目录

1.Ollama官方下载

2.安装Deepseek-R1大模型

3.美化使用界面


1.Ollama官方下载

官方下载链接:https://ollama.com/download

进入官网根据自己的电脑系统型号选择版本,我是windows系统所以我选择第三个(如图红框所示)。选择好对应版本后点击下载即可(如图箭头所示)。

下载完后点击打开文件选择Install即可自动安装Ollama。

2.安装Deepseek-R1大模型

a.

进入刚才的官网:https://ollama.com/download

选择左上角的Models(模型)。

b.

进入页面后选择deepseek-r1.

c.

接着可以选择模型的版本:如图所示红色方框内是模型的版本号,点击红色箭头处的下标可以选择其他版本,选择好版本之后点击绿色箭头处复制绿色方框内的命令即可。

注意:Deepseek R1有多个版本1.5B Qwen、8B Llama、14B Qwen、32B Qwen、70B Llama。根据自己电脑的配置来选择合适的版本。要不然会影响电脑性能,启个ollam就很卡。

建议配置:

设备级别

模型版本

最低配置要求

入门级设备

1.5B

4GB 内存 + 核显

进阶推荐

7B

8GB 内存 + 4GB 显存

高性能设备

32B

32GB 内存 + 12GB 显存

d.

复制好命令之后,按下键盘的ctrl+win进入命令行界面。先查看是否真确安装Ollama,输入命令ollama -v回车如果出现ollama版本号即说明安装成功。

接着将刚才在官网复制的命令粘贴进去,然后回车执行即可,后台就会自动加载大模型到本地,只需要等待进度条加载玩,当出现success时Deep seek-R1大模型就本地部署成功了。

接下来可以进行提问测试了:

输入/bye可以退出

当想要再次开启对话时,可以输入ollama list

接着复制想要打开的模型的名字 

输入ollama runn 粘贴名字,按回车即可进入对话

3.美化使用界面

我知道在命令行使用该模型并不是最好的体验,所以接下来我们要做一个美化的操作界面。

进入Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

下载Chatbox或者使用网页版

点击设置选择OLLAMA APL 接着再选择已下载的模型

注意!!!一定一定一定要参考教程操作 确保远程Ollama服务能够远程连接

操作完成之后点击保存即可

接下来就可以畅快的体验Deepseek-R1大模型的便捷性了。

;