图引擎模块(GE)由C++实现,位于前端模块MindSpore/Tensorflow和底层硬件之间,起到承接作用。图引擎模块以ME/TF下发的图作为输入,然后进行一系列的深度图优化操作,最后输出一张可以在底层硬件上高效运行的图。GE针对昇腾AI处理器的硬件结构特点,做了特定的优化工作,以此来充分发挥出昇腾AI处理器的强大算力。在进行模型训练/推理时,GE会被自动调用而用户并不感知。GE主要由GEAPI和GECore两部分组成,详细的架构图如下所示。
GEAPI
GEAPI是连接前端模块ME/TF和GECore的接口,负责GECore中初始化、Session管理模块的接口,支持运行环境初始化,Session创建、销毁,图添加执行。
GECore
GECore是GE的核心模块,负责整个训练过程中的图管理。GECore中的图处理可细分为六大步骤,分别是图准备、图拆分、图优化、图编译、图加载和图执行,对于ME下发的每一张图都会经过这六个步骤的操作,最终得到可以直接在底层硬件上高效执行的图。
图准备&整图优化
完成整图级别的数据准备和优化,涉及到IR库及算子库。使用IR库中算子的InferShape函数,完成整图的Shape推导,以便后续申请内存;同时根据算子的聚合属性,完成某些算子的聚合优化,如allreduce算子,会按照聚合参数,将若干各参数对应梯度的allreduce算子聚合为一个,以此减少通讯耗时。
图拆分
昇腾AI处理器是一种异构芯片,含有CPU(AICPU)和向量计算部件AICORE,图中每个算子会按照开销模型选择执行的核心,此阶段会对算子进行最优的核心分配,每种核心对应软件上的一个抽象引擎;按照之前对各算子的引擎分配,以引擎为边界,将整图拆分为若干子图,在图边界算子上插入相应的Placeholder算子以做标识,之后的优化、编译、加载操作均会以子图为单位进行,这样可以有效减少优化过程的耗时。
子图优化
根据子图所属引擎,调用不同的优化器接口执行优化。为了充分发挥昇腾AI处理器中AICORE模块的算力,在AICORE内CUBE单元进行计算的算子会采用一种5D的数据格式,图优化阶段会对相应算子进行4D/5D的类型转换;为了进一步发挥CUBE单元的算力,减少数据搬运次数,GE会对某种范式的算子连接进行融合操作,此步骤也在图优化阶段进行;对所有子图优化之后,需进行算子运行属性计算,以计算输入输出内存大小。
图编译&图加载
GE采用即时算子编译技术,即按照实际网络结构即时编译生成算子可执行程序,同时完成内存复用与内存分配、流分配、算子可执行程序加载等。每个算子执行任务绑定到特定的流上,同一个流的任务是串行执行的,不同流上的任务可以并行执行。图加载阶段按照引擎归属的runtime,将子图加载到硬件上准备执行。
图执行
最终在硬件上执行子图,并返回相应的输出值。为了提高运行效率,图执行阶段提供了一种下沉模式,可以在底层硬件上连续运行多轮再返回输出值,以此减少从底层硬件拷贝数据的次数。
在训练/推理过程中,上述过程会自动执行,通过上述图操作,GE可以将前端下发的图转换为一种可以在昇腾AI处理器上高效运行的图模式。
安装说明安装GE源码安装社区贡献安装说明安装GEGE内嵌在MindSpore/Ascend安装包中,MindSpore/Ascend安装完毕后,GE以动态库的方式被调用。
源码安装GE也支持由源码编译,进行源码编译前,首先确保你有昇腾910AI处理器的环境(可通过昇腾开发者社区获取),同时系统满足以下要求:
GCC>=7.3.0CMake>=3.14.0Autoconf>=2.64Libtool>=2.4.6Automake>=1.15.1编译完成后会生成几个动态库,他们会链接到MindSpore/Ascend中执行,无法单独运行。
下载GE源码。
GE源码托管在码云平台,可由此下载。
gitclonehttps://gitee.com/mindspore/graphengine.gitcdgraphengine在GE根目录下执行下列命令即可进行编译。
bashbuild.sh开始编译之前,请确保正确设置相关的环境变量。在build.sh的脚本中,会进行gitclone操作,请确保网络连接正常且git配置正确。在build.sh的脚本中,默认会8线程编译,如果机器性能较差,可能会编译失败。可以通过-j{线程数}来控制线程数,如bashbuild.sh–j4。完成编译后,相应的动态库文件会生成在output文件夹中。
更多指令帮助,可以使用:
bashbuild.sh–h如果想清除历史编译记录,可以如下操作:
rm-rfbuild/output/bashbuild.sh社区MindSporeSlack -可以提问和找答案。贡献欢迎参与贡献,更多信息详见ContributorWiki。
路标以下将展示graphengine近期的计划,我们会根据用户的反馈诉求,持续调整计划的优先级。
总体而言,我们会努力在以下几个方面不断改进。
1、完备性:Cast/ConcatV2算子支持输入数据类型为int64的常量折叠;2、完备性:onnxparser支持一对多映射;3、架构优化:ATC解耦并迁移至parser;4、易用性:提供tensorflow训练的checkpoint文件转pb文件的一键式转化工具;5、易用性:提供一键式本地编译环境构建工具;6、可维测:ATC转换生成的om模型包含框架信息、cann版本信息和芯片信息等;
评论