高效运维机器学习与数据挖掘神经网络与深度学习

基于LXD的GPU算力虚拟化(保姆级教程)

2020-12-24  本文已影响0人  LionelDong

基于LXD的GPU算力虚拟化

[TOC]

搭建需求

由于当前算法和模型对GPU的强烈需求,实验室购置了一台性能强悍的GPU云服务器供大家一起使用。如果所有人对这台服务器拥有控制权是十分危险的,例如误删除他人文件,弄乱他人环境等。最简单的方法是为每位同学配置一台虚拟机,但硬件虚拟化造成大量的资源浪费,同时GPU并不支持常规的虚拟化。

基于上述背景整理提出以下需求:

宿主机硬件配置

解决方案

需求中有两个核心点:

用户隔离

首先解决的问题就是怎么做用户的隔离。最简单的方法无疑是虚拟机,然而存在如下问题:

  1. 实现显卡虚拟化的成本非常高
  2. CPU虚拟化的额外开销不低
  3. IO虚拟化的性能问题

目前很多Hypervisor都支持PCI Passthrough,然而这种技术会使得显卡只能被一台虚拟机独占,其他虚拟机无法使用这块显卡。无法最大化硬件资源的利用率。与之类似的就是CPU和内存资源的划分,使用虚拟化后,一台虚拟机的CPU和内存基本都是定死的,无法按需动态分配。无疑这种静态资源分配策略也降低了硬件资源的利用率。

因此,我们完全不考虑虚拟化

公用的GPU云服务器是Linux平台,所以我们可以直接利用Linux内核提供的隔离机制来解决这个问题。因为只做隔离,这里带来的额外开销微乎其微。同时硬件资源共享,可以最大化硬件资源资源的利用率。

用来隔离的方法有很多,较为成熟的有:

OpenVZ因为太过复杂就不考虑了,LXD和LXC差别不大。因此只比较LXCDocker即可。

Docker: 更倾向于部署应用与无状态。若把Docker当作虚拟机使用,Docker的接口反而成为一种累赘

LXC: 系统级容器,倾向于提供一台系统级的容器环境

综合比较后选择LXC作为用户隔离方案

硬件资源共享

接下来是另一个重要问题,硬件资源共享。如何在LXC容器中使用GPU是我们非常关心的问题,好在 Linux 有硬件即文件的哲学,我们只要把宿主机中显卡设备对应的文件挂载到 LXC 容器中就能解决这个问题。

整体方案流程

  1. 宿主机安装深度学习三件套
    1. 安装Nvidia Driver
    2. 安装CUDA
    3. 安装nvidia-container-runtime,便于在容器内可以直接调用宿主机的显卡驱动
    4. 安装Anaconda,设置共享的conda环境。cudnn 通过conda在不同的虚拟环境下安装
  2. 安装LXD/ZFS软件进行配置
  3. 创建容器模板 ( Ubuntu 20.04 ),包括:GPU驱动、共享目录、SSH服务等
  4. 按需分配,克隆容器模板,并做个性化修改

配置流程

系统更新

# 更新源
$ sudo apt update

# 更新软件
$ sudo apt upgrade

# 安装常用编译工具
$ sudo apt install gcc, g++, make, cmake, build-essential

安装NVIDIA驱动

# 安装ubuntu-drivers 工具
$ sudo apt install ubuntu-drivers-common

使用ubuntu-drivers devices命令查看显卡型号和推荐驱动版本

ubuntu@10-19-127-48:~$ ubuntu-drivers devices
== /sys/devices/pci0000:00/0000:00:03.0 ==
modalias : pci:v000010DEd00001B38sv000010DEsd000011D9bc03sc02i00
vendor   : NVIDIA Corporation
model    : GP102GL [Tesla P40]
driver   : nvidia-driver-390 - distro non-free
driver   : nvidia-driver-440-server - distro non-free
driver   : nvidia-driver-455 - distro non-free recommended
driver   : nvidia-driver-450 - distro non-free
driver   : nvidia-driver-418-server - distro non-free
driver   : nvidia-driver-450-server - distro non-free
driver   : xserver-xorg-video-nouveau - distro free builtin

卸载原有nvidia驱动并将nouveau驱动加入黑名单并禁用nouveau内核模块

$ sudo apt remove --purge nvidia* -y

# 把 nouveau 驱动加入黑名单并禁用用 nouveau 内核模块
# 在文件 blacklist-nouveau.conf 中加入如下内容
$ sudo echo "blacklist nouveau" >> /etc/modprobe.d/blacklist-nouveau.conf
$ sudo echo "options nouveau modeset=0" >> /etc/modprobe.d/blacklist-nouveau.conf

# 保存退出,执行
$ sudo update-initramfs -u

自动安装推荐驱动(recommended)的驱动:

$ sudo ubuntu-drivers autoinstall

安装成功后,重新登陆系统使用nvidia-smi命令确认安装成功:

Thu Dec 24 11:31:38 2020       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 455.38       Driver Version: 455.38       CUDA Version: 11.1     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  Tesla P40           Off  | 00000000:00:03.0 Off |                    0 |
| N/A   25C    P8     9W / 250W |      4MiB / 22919MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
|   1  Tesla P40           Off  | 00000000:00:04.0 Off |                    0 |
| N/A   24C    P8    10W / 250W |      4MiB / 22919MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
|    0   N/A  N/A      2435      G   /usr/lib/xorg/Xorg                  4MiB |
|    1   N/A  N/A      2435      G   /usr/lib/xorg/Xorg                  4MiB |
+-----------------------------------------------------------------------------+

安装CUDA

根据nvidia-smi结果中的信息,我们需要安装cuda 11.1

# 下载runfile
$ wget https://developer.download.nvidia.com/compute/cuda/11.1.1/local_installers/cuda_11.1.1_455.32.00_linux.run

# 安装
$ sudo sh cuda_11.1.1_455.32.00_linux.run

在选择安装内容时,去除驱动选项

配置环境变量,在/etc/profile中添加

export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-11.1
export PATH=$PATH:$CUDA_HOME/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.1/lib64

重新载入环境变量

$ source /etc/profile

安装Anaconda3

下载安装Anaconda3

# 下载安装包
$ wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-2020.11-Linux-x86_64.sh
# 安装
$ sudo sh Anaconda3-2020.11-Linux-x86_64.sh

为实现conda 环境共享,Anaconda 安装目录设置为/opt/anaconda3

更改conda 源为清华源进行加速

# 生成.condarc 文件
$ conda config --set show_channel_urls yes

修改~/.condarc文件

channels:
  - defaults
show_channel_urls: true
# 注释下面一行,防止不同源的包冲突
# channel_alias: https://mirrors.tuna.tsinghua.edu.cn/anaconda
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/pro
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

更新conda基础环境shell

$ conda update conda --all
$ codna install anaconda

配置Tensorflow2.0环境

# 创建tf2.0虚拟环境
(base) $ conda create -n tf2

# 激活虚拟环境
(base) $ conda activate tf2

# 安装tf2.0 GPU环境
(tf2) $ conda install tensorflow-gpu=2.1

# 回到基础环境便于后续安装操作
(tf2) $ conda deactivate

配置Pytorch 环境

# 创建 Pytorch 虚拟环境
(base) $ conda create -n pytorch

# 激活虚拟环境
(base) $ conda activate pytorch

# 安装 pytorch 虚拟环境。参考 https://pytorch.org/get-started/locally/
(pytorch) $ conda install pytorch torchvision torchaudio cudatoolkit=11.0 -c pytorch

# 回到基础环境便于后续安装操作
(pytorch) $ conda deactivate

配置用于Conda和CUDA 环境共享的用户组

# 新建用户组, 并指定gid, 便于lxd idmap设置
$ sudo groupadd -g 1101 conda_public

# 将当前用户添加到用户组
$ sudo gpasswd -a $(whoami) conda_public

# 修改anaconda 文件夹用户组
$ sudo chown -R $(whoami):conda_public /opt

# 修改anaconda 文件夹权限
$ sudo chmod 775 -R /opt

# 修改cuda 文件夹用户组
$ sudo chown -R $(whoami):conda_public /usr/local/cuda-11.1 

# 修改cuda 文件夹权限
$ sudo chmod 775 -R /usr/local/cuda-11.1 

容器环境配置

安装lxd、zfs及bridge-utils

$ sudo apt install lxc lxd-client zfsutils-linux bridge-utils

LXD 初始化

$ sudo lxd init

详情如下:

Would you like to use LXD clustering? (yes/no) [default=no]: 
Do you want to configure a new storage pool? (yes/no) [default=yes]: 
Name of the new storage pool [default=default]: 
Name of the storage backend to use (btrfs, dir, lvm, zfs) [default=zfs]:
Create a new ZFS pool? (yes/no) [default=yes]:
Would you like to use an existing block device? (yes/no) [default=no]: 
# 这里我们把默认的存储池设置为 128G,应该足够使用
# 如果根分区的文件系统是 btrfs/zfs,这里会直接跳过,不会有设置.
# 即默认可以使用根分区的全部容量.
# 其他文件系统的话,这里要创建 loopback 设备,所以才需要指定大小.
Size in GB of the new loop device (1GB minimum) [default=91GB]: 100G
Would you like to connect to a MAAS server? (yes/no) [default=no]: 
# 网络设置部分
Would you like to create a new local network bridge? (yes/no) [default=yes]: 
What should the new bridge be called? [default=lxdbr0]: 
What IPv4 address should be used? (CIDR subnet notation, “auto” or “none”) [default=auto]: 
What IPv6 address should be used? (CIDR subnet notation, “auto” or “none”) [default=auto]: 
Would you like LXD to be available over the network? (yes/no) [default=no]: yes
Address to bind LXD to (not including port) [default=all]: 
Port to bind LXD to [default=8443]: 
Trust password for new clients: 
Again: 
# 最后打印输出配置的内容,以便检查是否有误
Would you like a YAML "lxd init" preseed to be printed? (yes/no) [default=no]: yes

将管理员用户加入lxd组:

$ sudo gpasswd -a $(whomai) lxd

Note: 将一个用户加入lxd用户组相当于给该用户容器管理的root权限。Docker的docker用户组也是这样的。在运行相关命令时就可以不加sudo了。

换源和拉取镜像

$ lxc remote add tuna-images https://mirrors.tuna.tsinghua.edu.cn/lxc-images/ --protocol=simplestreams --public
$ lxc image copy tuna-images:ubuntu/20.04 local: --alias ubuntu/20.04 --copy-aliases --public

配置idmap

为方便权限映射和管理,我们还要配置idmap。首先查看/etc/subuid/etc/subgid 这两个文件的内容,两个文件内容应该是一样的,默认为:

lxd:100000:65536
ubuntu:100000:65536

这表示将允许用户ubuntu使用宿主机中的uid/gid从100000开始的65535个id,用于容器内的分配。

lxd:1000:1000
ubuntu:1000:1000
lxd:100000:10000000
ubuntu:100000:10000000

这里我们把原来使用的id数量增加了,这是为了嵌套使用容器而设置的,可以在lxc 容器中嵌套使用lxc容器或docker容器。POSIX要求可用的id至少要有65536个。然后,我们还设置允许用户ubuntu使用uid/gid从1000开始给的1000个id。正好我们在宿主机创建的uid/gid默认是从1000开始递增的。修改/etc/subuid/etc/subgid需要重启lxd服务才能生效:systemctl restart lxd

Note: 这里的 idmap 的设置是为了方便管理,管理员也可以考虑跳过。只需要给不同的容器在宿主机上分配不同的目录挂载进去给用户使用,不要允许用户访问宿主机,也没有。不过好像这样子管理员在宿主机上也看不出来到底是哪个用户在占用显存了。在宿主机上用 nvidia-smi 命令查到进程的 pid,再根据 pid 去查看对应的用户的 uid 应该就都是一样的。为了管理方便,还是多做点吧。

容器基础配置

# 设置conda 共享目录,实现容器共用conda环境
$ lxc profile device add default conda disk {source,path}=/opt/anaconda3

# 添加GPU
$ lxc profile device add default gpu gpu

# 配置nvidia.runtime, 让容器使用宿主机的驱动和相关runtime。不需要在容器内安装驱动
$ lxc profile set default nvidia.runtime true

# 开机自动启动容器
$ lxc profile set default boot.autostart true

# 将系统的/etc/profile 复制一份用来设置cuda相关的共享文件
$ sudo cp /etc/profile /etc/lxd_container_public_profile

# 设置 profile 共享文件,便于共享cuda
$ lxc profile device add default container_etc_profile disk source=/etc/lxd_container_public_profile path=/etc/profile

# 可以再次检查这个默认的profile是否错误
$ lxc profile show default

添加CUDA配置文件

# 创建名为 cuda 的配置文件
$ lxc profile create cuda

# 挂载 cuda
$ lxc profile device add cuda cuda-11.1 disk {source,path}=/usr/local/cuda-11.1 

# 再次检查是否有误
$ lxc profile show cuda

创建容器模板

# 创建容器模板 template
$ lxc init ubuntu/20.04 template -p default

# 启动容器
$ lxc start template

# 连接容器
$ lxc exec template bash

进入容器后,安装软件并进行配置(默认进入的是容器的root环境)

# 更新源并安装软件
apt update
apt install git tmux htop gcc g++ build-essential net-tools -y

# 为了实现共享conda环境,配置用户组和用户信息
# 新建用户组
groupadd conda_public

# 将当前用户添加到用户组
gpasswd -a ubuntu conda_public

# 便于环境变量加载,在ubuntu用户的用户目录下进行配置。在其中添加`source /etc/profile`
vim /home/ubunut/.bashrc

# 退出容器环境
exit

为方便在容器中使用CUDA中的nvcc,添加这个配置文件,并绑定路径

# 为template容器添加cuda配置文件
$ lxc profile add template cuda

# 绑定路径便于立即生效
$ lxc exec -t template findmnt cuda

保存容器为镜像模板

# 删除 apt 缓存,减小镜像大小
rm -rfv /var/lib/apt/lists/*

# 退出并停止容器
exit
$ lxc stop template

# 保存容器为镜像模板
$ lxc publish template --alias template-ubuntu-20.04-gpu

这里我们将容器保存为镜像模板,并且设置该镜像的别名为 template-ubuntu-18.04。以后,只需从该模板创建容器给用户使用即可。

基于模板创建用户容器

例如,给用户alice创建一个容器

$ lxc launch template-ubuntu-20.04-gpu alice-container

从方便管理的角度考虑:

# 在宿主机创建用户 alice
$ sudo useradd -m -s $(which nologin) alice

# 将用户添加到conda_public用户组,获取cuda和conda共享目录的读写权限
$ sudo useradd -a -G conda_public alice

# 将宿主机中用户 alice 的 home 目录挂载到容器内的 /home/ubuntu 目录去
# 这样子用户的所有数据都会保存到宿主机上的 /hom/alice 目录,容器出错直接删除即可,数据也不会丢失.
$ lxc config device add alice-container home disk source=/home/alice path=/home/ubuntu

# 设置该容器的 idmap,让宿主机的 alice 用户可以映射到容器内的 ubuntu 用户
# idmap设置参考:https://github.com/lxc/lxd/blob/master/doc/userns-idmap.md
$ printf "both $(id alice -u) 1000\ngid 1101 1000" | lxc config set alice-container raw.idmap -

# 检查 raw.idmap 的设置
$ lxc config get alice-container raw.idmap
# 应该得到类似这样的输出:
both 1001 1000
gid 1002 1001

# 第一行说明:宿主机的 alice 用户的 uid 和 gid 都分别映射到容器内的 ubuntu 用户的 uid 和 gid 了
# 第二行说明:宿主机的conda_public 用户组的gid 映射到容器内的conda_puiblic用户组的gid了
# 也就是说,容器内 ubuntu 用户的权限等价与宿主机里 alice 用户的权限
# 从而可以读写挂载进容器的 alice 用户的 home 目录

进入用户容器进行配置:

# 进入用户容器
$ lxc exec alice-container bash

通过passwd命令设置root用户ubuntu账户密码

Note: ubuntu为容器的一个默认用户

查看网络信息

# 查看当前ip
$ ifconfig

# 查看网关信息
(base) root@alice-container:~# netstat -rn
Kernel IP routing table
Destination     Gateway         Genmask         Flags   MSS Window  irtt Iface
0.0.0.0         10.55.146.1     0.0.0.0         UG        0 0          0 eth0
10.55.146.0     0.0.0.0         255.255.255.0   U         0 0          0 eth0

为防止容器重启发生IP变化,修改/etc/netplan/10-lxc.yaml文件设置静态IP

network:
  version: 2
  ethernets:
    eth0:
      dhcp4: false
      dhcp-identifier: mac
      addresses: [10.55.146.249/24]
      optional: true
      gateway4: 10.55.146.1
      nameservers:
              addresses: [8.8.8.8, 114.114.114.114]

因公用计算资源为云服务器,为实现让每个同学都可以通过SSH连接自己的容器,配置端口转发

$ lxc config device add alice-container sshport proxy listen=tcp:0.0.0.0:6022 connect=tcp:10.55.146.249:22 bind=host

alice同学就可以通过SSH连接自己的容器了

$ ssh -P 6022 ubuntu@宿主机ip

至此用户的容器配置完成,若有新的用户需要使用公用gpu云服务器的算力,可基于模板创建用户容器

当然还可通过SSHFS远程挂载文件夹,方便远程coding。

参考信息:

  1. 使用 LXD 搭建多人使用的 GPU 服务器 | XUNGE's Blog

  2. 面向深度学习训练的LXD GPU 服务器搭建、管理与使用

  3. 使用LXD搭建多人共用GPU服务器 - Gong's Blog

  4. shenuiuin/LXD_GPU_SERVER: 实验室GPU服务器的LXD虚拟化

  5. 搭建公用GPU服务器过程记录 | SHEN's BLOG

  6. 使用 LXD 搭建多人使用的 GPU 服务器 | 大专栏

  7. 为实验室建立公用GPU服

上一篇下一篇

猜你喜欢

热点阅读