Bootstrap

[Docker]基于nvidia/cuda镜像构造机器学习环境

如题,直接上步骤,起初是因为做实验的时候版本冲突只能在cuda镜像上装,所以记录一下。参考了很多文章,但是分散在不同文章里,做个综合。

第一步:拉取nvidia/cuda镜像,创建容器

1. 找到对应版本拉取,网址:https://hub.docker.com/r/nvidia/cuda

docker pull nvidia/cuda:12.2.0-devel-ubuntu20.04

有三种版本,看了网上的说明,大概如下,按需下载即可:

- base:基于CUDA,包含最精简的依赖,用于部署预编译的CUDA应用,需要手工安装所需的其他依赖

- runtime:基于base,添加了CUDA toolkit共享的库

- devel:基于runtime,添加了编译工具链,调试工具,头文件,静态库。用于从源码编译CUDA应用。

2. 创建容器, 如需端口映射等,更详细docker命令见docker 常用命令大全_docker常用命令_保护我方胖虎的博客-CSDN博客

docker run -it -d --gpus "device=0" --name name -v /path/to/your/workspace:/workspace nvidia/cuda:xxx /bin/bash

自行验证是否可以运行nvidia-smi,验证容器内的CUDA环境正常。如果报错可能是docker缺个补丁,这个百度一下既有。

第二步:一系列换源操作

1. 更换apt源,可以读一下这篇

;