参考文档

  1. mxnet官方install手册
  2. TVM 0.4.0官方安装指导手册
  3. LLVM下载地址
  4. Debian/Ubuntu Linux下安装LLVM/Clang编译器

开发环境介绍

  1. 操作系统版本:Ubuntu16.04 LTS 64-bit,编译TVM的host、target版本;
  2. 目标器件为Firefly-RK3399,采用双核Cortex-A72和四核Cortex-A53的大小核架构。
  3. MXNet版本: v1.2.1
  4. LLVM版本: v6.0
  5. TVM版本: v0.4.0
  6. 交叉编译工具链版本:gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux

TVM编译、安装和测试顺序

TVM按照以下顺序来进行编译、安装:

  1. 编译MXNet(host版本,暂时以GPU模式安装)
  2. 安装LLVM
  3. 编译TVM(host版本)
  4. 交叉编译环境搭建
  5. 编译TVM runtime(target版本)

编译MXNet(host版本)

因为我们暂时测试的TVM前端模型是MXNet模型,所以进行编译模型之前要先安装host版本的MXNet。这里我们最简单的通过python-pip的方式进行安装。

更新python和pip
sudo apt-get update
sudo apt-get install -y wget python gcc
wget https://bootstrap.pypa.io/get-pip.py && sudo python get-pip.py
安装MXNet

安裝GPU版本(主机采用Nvidia的GTX1060)的MXNet时,需要提前安装好Nvidia库来驱动GPU。主要包括CUDA9.0(安装教程)和cuDNN(安装教程)两部分。

运行下面命令即可查看CUDA和cuDNN是否已经安装,以及对应版本号。

nvidia-smi
nvcc --version

这里写图片描述
这里写图片描述

安装对应CUDA版本的MXNet
pip install mxnet-cu90
# 可选项,安装graphviz,为使用mxnet.viz包进行图形可视化所需。  
apt-get install graphviz  
pip install graphviz  
# 可选项,安装Intel MKL
pip install mxnet-cu90mkl
验证安装是否成功安装
python
# 进入python运行空间,然后输入以下python代码进行验证
>>> import mxnet as mx
>>> a = mx.nd.ones((2, 3)), mx.gpu())
>>> b = a * 2 + 1
>>> b.asnumpy()
array([[ 3.,  3.,  3.],
       [ 3.,  3.,  3.]], dtype=float32)
# 如果上述代码执行正确则表示MXNet host版本已经正确安装
>>> exit()

安装LLVM

如下图所示TVM对于ARM后端的支持是基于LLVM编译器实现的,TVM对于的LLVM版本的最低要求为4.0,最高版本不能超过6.0。本次安装LLVM版本6.0。

这里写图片描述

添加LLVM相关的apt-get源

第一步,首先编辑 /etc/apt/sources.list,加入以下源:

deb http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main
deb-src http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main     

添加源后务必运行apt-get update,如果有错误提示,先运行第二步,然后apt-get update)

这里写图片描述

第二步,安装前必须取得相关证书

wget -O - http://llvm.org/apt/llvm-snapshot.gpg.key|sudo apt-key add -
安装llvm
apt-get install clang-6.0 lldb-6.0

显示如下即安装成功

这里写图片描述

上面的脚本只适用于Ubuntu16.04添加LLVM 6.0,如果你使用的是其他的操作系统和LLVM版本可以参考这里

编译TVM(host版本)

安装cmake

由于TVM 0.4.0版本首次采用cmake作为编译配置工具,需要安装cmake。

cd /opt/software/
wget https://cmake.org/files/v3.11/cmake-3.11.0-rc2-Linux-x86_64.tar.gz
tar zxvf cmake-3.11.0-rc2-Linux-x86_64.tar.gz
ln -sf /opt/software/cmake-3.11.0-rc2-Linux-x86_64/bin/*  /usr/bin/ 
下载TVM
# git命令中选项recursive表示要将项目全部文件都下载,包括子模块。
git clone --recursive https://github.com/dmlc/tvm/
apt-get update
apt-get install -y python python-dev python-setuptools gcc libtinfo-dev zlib1g-dev
配置LLVM选项

在运行cmake-gui命令之前,修改tvm/CMakeLists.txt内容

# 显示执行构建过程中详细的信息,如编译工具选择,有助于区分系统编译工具和交叉编译工具
set(CMAKE_VERBOSE_MAKEFILE ON)
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" /usr/bin/llvm-config-6.0)

修改tvm/cmake/config.cmake

# 文件默认为set(USE_LLVM OFF)
set(USE_LLVM /usr/bin/llvm-config-6.0)
编译TVM

完成上述修改后,执行如下命令进行编译选项配置:

cd tvm
mkdir build
cd tvm/build
cmake-gui

这里写图片描述

make -j4

如果编译正常完成之后,会在tvm的lib目录下面生成一些库文件。

  • libnnvm_compiler.so
  • libtvm_runtime.so
  • libtvm.so
  • libtvm_topi.so
设置PYTHONPATH环境变量

在安装之前先在/etc/bash.bashrc中设置PYTHONPATH环境变量

export PYTHONPATH=/opt/compile/BoxV3/tvm_host/tvm/python:/opt/compile/BoxV3/tvm_host/tvm/topi/python:/opt/compile/BoxV3/tvm_host/tvm/nnvm/python:${PYTHONPATH}

重启命令行以重新加载PYTHONPATH

若不设置PYTHONPATH环境变量,每次修改TVM的python源码均需要通过以下命令更新源码:

cd tvm
cd python; python setup.py install; cd ..
cd topi/python; python setup.py install; cd ../..
cd nnvm/python; python setup.py install; cd ../..
修改TVM Python源代码

在安装Python包之前为了交叉编译模型需要修改TVM Python源代码

针对ARM编译器选项和芯片型号修改

armv7与armv8交叉编译采用不同架构的交叉编译工具链,arv8自带neon寄存器支持,不需要在源码中添加。

  • tvm/python/tvm/target.py

针对armv8目标器件进行修改:

def rasp(options=None):
    """Returns a rasp target.

    Parameters
    ----------
    options : str or list of str
        Additional options
    """
    opts = ["-device=rasp",
            "-mtriple=aarch64-linux-gnu",
            "-mcpu=cortex-a57"]
    opts = _merge_opts(opts, options)
    return _api_internal._TargetCreate("llvm", *opts)

针对armv7目标器件进行修改:

def rasp(options=None):
    """Returns a rasp target.

    Parameters
    ----------
    options : list of str
        Additional options
    """
    opts = ["-device=rasp",
            "-mtriple=arm-linux-gnueabihf",
            "-mcpu=cortex-a7",
            "-mattr=+neon"]
    opts = _merge_opts(opts, options)
    return _api_internal._TargetCreate("llvm", opts)

以下修改仅展示对armv8目标器件的修改内容,armv7器件在相同文件对应位置进行修改,替换为armv7的交叉工具链即可。

  • tvm/python/tvm/contrib/cc.py
def create_shared(output,
                  objects,
                  options=None,
                  cc="aarch64-linux-gnu-g++"):

def _linux_shared(output, objects, options, cc="aarch64-linux-gnu-g++"):
  • tvm/src/codegen/build_module.cc
    注意:在测试时build_module.cc在vscode中未打开时无法搜索关键字来进行修改。
Target rasp(const std::vector<std::string>& options) {
  return CreateTarget("llvm", MergeOptions(options, {
    "-device=rasp",
    "-mtriple=aarch64-linux-gnu",
    "-mcpu=cortex-a57"
  }));
}
  • tvm/tests/python/unittest/test_codegen_arm.py
def test_popcount():
    target = 'llvm -target=aarch64-linux-gnu -mcpu=cortex-a57'
  • tvm/tutorials/nnvm_quick_start.py
if use_rasp:
    target = "llvm -target=aarch64-linux-gnu -mcpu=cortex-a57"
  • tvm/nnvm/python/nnvm/frontend/mxnet.py
#第33行int改为long
def _parse_tshape(tshape):
    """Parse tshape in string."""
    return [long(x.strip()) for x in tshape.strip('()').split(',')]

编译安装TVM runtime(target版本)

交叉编译环境搭建

本文档目标器件为Firefly-RK3399(Cortex-A72+Cortex-A53,ARMv8架构),其他架构器件通常更换交叉编译链即可。

软件环境
  • 交叉工具链:gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux
设置本地编译链和交叉编译链

在/etc/bash.bashrc中设置本地编译链和交叉编译链,重启命令行使设置生效

# Native Compiler
export AR_host="ar"
export CC_host="gcc"
export CXX_host="g++"
export LINK_host="g++"

#ARMv8 cross compiler
export ARCH=arm
export PATH=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin:$PATH
export CROSS_COMPILE=aarch64-linux-gnu-             
export CC=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc
export CXX=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-g++    
export LD=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ld
export AR=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ar
export AS=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-as
export RANLIB=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ranlib

通过命令echo $CC查看aarch64-linux-gnu-gcc交叉编译工具是否生效

root@parking:/opt/compile/PC/tvm_0.4.0_armv8/tvm/build# echo $CC
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc

重新复制一份TVM到另外的文件夹,保证不和TVM的host版本冲突,执行命令清除host编译工具生成的libtvm_runtime.so文件和cmake编译配置。

cd tvm
make clean
rm -r build/*

由于TVM runtime不需要LLVM,根据前面“配置LLVM选项”部分,屏蔽掉LLVM选项。

  • tvm/CMakeLists.txt
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" OFF)
  • tvm/cmake/config.cmake
set(USE_LLVM OFF)

再次执行cmake-gui进行编译配置,选择”Specify options for cross-compiling”

这里写图片描述

其中,C/C++对应选择交叉编译工具链中的工具,Target Root目录如下:
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/aarch64-linux-gnu/libc

make runtime

编译成功后build文件夹会生成libtvm_runtime.so

这里编译的tvm_runtime运行时库是最终需要部署到嵌入式设备中的,和TVM模型编译无关。

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐