MNN 深度神经网络推理引擎开源项目

我要开发同款
匿名用户2019年05月07日
35阅读
开发技术C/C++
所属分类人工智能
授权协议Apache

作品详情

MNN是一个高效、轻量的深度学习框架。它支持深度模型推理与训练,尤其在端侧的推理与训练性能在业界处于领先地位。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷、钉钉、闲鱼等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等70多个场景。此外,IoT等场景下也有若干应用。

MNN的架构设计理念与性能数据在MLSys2020上面发表。Paper 在此处。如果MNN对你的研究有所助益,欢迎引用MNN的论文:

整体特点轻量性针对端侧设备特点深度定制和裁剪,无任何依赖,可以方便地部署到移动设备和各种嵌入式设备中。iOS平台:armv7+arm64静态库大小5MB左右,链接生成可执行文件增加大小620KB左右,metallib文件600KB左右。Android平台:so大小400KB左右,OpenCL库400KB左右,Vulkan库400KB左右。通用性支持Tensorflow、Caffe、ONNX等主流模型文件格式,支持CNN、RNN、GAN等常用网络。支持86个TensorflowOp、34个CaffeOp;各计算设备支持的MNNOp数:CPU71个,Metal55个,OpenCL29个,Vulkan31个。支持iOS8.0+、Android4.3+和具有POSIX接口的嵌入式设备。支持异构设备混合计算,目前支持CPU和GPU,可以动态导入GPUOp插件,替代CPUOp的实现。高性能不依赖任何第三方计算库,依靠大量手写汇编实现核心运算,充分发挥ARMCPU的算力。iOS设备上可以开启GPU加速(Metal),常用模型上快于苹果原生的CoreML。Android上提供了OpenCL、Vulkan、OpenGL三套方案,尽可能多地满足设备需求,针对主流GPU(Adreno和Mali)做了深度调优。卷积、转置卷积算法高效稳定,对于任意形状的卷积均能高效运行,广泛运用了Winograd卷积算法,对3x3->7x7之类的对称卷积有高效的实现。针对ARMv8.2的新架构额外作了优化,新设备可利用半精度计算的特性进一步提速。易用性有高效的图像处理模块,覆盖常见的形变、转换等需求,一般情况下,无需额外引入libyuv或opencv库处理图像。支持回调机制,可以在网络运行中插入回调,提取数据或者控制运行走向。支持只运行网络中的一部分,或者指定CPU和GPU间并行运行。架构设计

MNN可以分为Converter和Interpreter两部分。

Converter由Frontends和GraphOptimize构成。前者负责支持不同的训练框架,MNN当前支持Tensorflow(Lite)、Caffe和ONNX(PyTorch/MXNet的模型可先转为ONNX模型再转到MNN);后者通过算子融合、算子替代、布局调整等方式优化图。

Interpreter由Engine和Backends构成。前者负责模型的加载、计算图的调度;后者包含各计算设备下的内存分配、Op实现。在Engine和Backends中,MNN应用了多种优化方案,包括在卷积和反卷积中应用Winograd算法、在矩阵乘法中应用Strassen算法、低精度计算、Neon优化、手写汇编、多线程优化、内存复用、异构计算等。

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论