Bootstrap

Qwen1.8B大模型跑通流程

此文仅作为本人参考博客以及视频讲解本地部署跑通大模型Qwen1.5B的记录


前言

整体参考这篇文章:通义千问Qwen 1.8B以及7B chat模型本地化部署

1.下载代码

首先在GitHub上进行代码的下载,链接:https://github.com/QwenLM/Qwen
下载完以后进行解压
在这里插入图片描述

2.部署环境

2.1 创建新环境

为了避免环境出错,选择新建一个部署大模型的新环境
打开Anaconda prompt,然后输入

conda create -n qwen1 python==3.11
conda activate qwen1

2.2 下载GPU

conda install pytorch==2.2.2 torchvision==0.17.2 torchaudio==2.2.2 pytorch-cuda=12.1 -c pytorch -c nvidia

2.3 安装依赖环境

pip install -r requirements.txt

PS:在下载GPU以后,使用import torch进行检查,然后报错
在这里插入图片描述
经过搜索以后修改numpy版本即解决
在这里插入图片描述
不过在安装依赖环境 requirements.txt的时候显示numpy又安装到2.几.几的版本去了。。。

3. 下载模型文件

参考的文章是使用魔塔进行模型的下载

3.1 安装魔塔

如果未进行魔塔的安装,需要先安装一下魔塔,参考魔塔的官方文档
在这里插入图片描述

首先pip

pip install modelscope

3.2 下载模型

然后下载这个模型,后面的local_dir是指定下载的文件地址

modelscope download --model qwen/Qwen-1_8B-Chat --local_dir ./model

开始下载
在这里插入图片描述

4.本地模型推理

4.1 安装依赖包

pip install -r requirements_web_demo.txt

4.2 修改模型路径(可选)

通过修改web_demo.py文件进行修改

vim web_demo.py

4.3 推理

GPU推理

 D:\PyProject\Qwen\Qwen-main>python web_demo.py --server-name 0.0.0.0 -c D:\PyProject\Qwen\Qwen-1_8B-Chat

在这里插入图片描述
使用本机的IP地址加上提供的端口号进行访问

在这里插入图片描述
占用内存差不多4个G
在这里插入图片描述


结束语

浅浅记录第一次部署大模型的流程

;