【推理引擎:核心原理】系列来啦!从入门到昇腾!

2023-03-02  本文已影响0人  ZOMI酱

当年作为核心SE在MindSpore团队从0到1构建了MindSpore Lite推理引擎,到去年知道的信息是现在在华为和荣耀手机上的AI能力都是基于Lite推理引擎,调用次数10亿/天。

所以就基于之前的工作,总结了《AI推理引擎:核心原理》这个系列的内容:从推理系统整体架构开始,然后到模型小型化、模型压缩,在真正推理之前需要进行模型转换和图优化,最后到kernel和runtime优化。还是很有意思的,也花了很多时间,希望能够帮助到大家啦!!!


在讲推理引擎/推理系统,又或者是推理部署之前呢,我们回顾下训练和推理的区别 _

训练过程通过设定数据处理方式,并设计合适的网络模型结构以及损失函数和优化算法,在此基础上将数据集以小批量(mini-batch)反复进行前向计算并计算损失,然后反向计算梯度利用特定的优化函数来更新模型,来使得损失函数达到最优的结果。训练过程最重要的就是梯度的计算和反向传播。

而推理就是在训练好的模型结构和参数基础上,做一次前向传播得到模型输出的过程。相对于训练而言,推理不涉及梯度和损失优化。推理的最终目标是将训练好的模型部署生产环境中。真正让 AI 能够运用起来。推理引擎可以将深度学习模型部署到云(Cloud)端或者边缘(Edge)端,并服务用户的请求。模型训练过程好比是传统软件工程中的代码开发的过程,而开发完的代码势必要打包,部署给用户使用,那么推理系统就负责应对模型部署的生命周期中遇到的挑战和问题。

当推理系统将完成训练的模型进行部署,并在服务时还需要考虑设计和提供负载均衡,请求调度,加速优化,多副本和生命周期管理等支持。相比深度学习框架等为训练而设计的系统,推理系统不仅关注低延迟,高吞吐,可靠性等设计目标,同时受到资源,服务等级协议(Service-Level Agreement),功耗等约束。本章将围绕深度学习推理系统的设计,实现与优化内容展开,同时还会在最后介绍部署和 MLOps 等内容。

移动端的推理引擎应该挺多的了,google在2017年推出了TF-Lite,腾讯在2017年推出了ncnn,Apple在2017也推出了CoreML,阿里在2018年推出了MNN,华为2019年推出了MindSpsore-Lite。距今已经过去了快5年的时间,技术上也接近收敛。下面让我们一起打开推理引擎的技术吧!

系列内容

希望这个系列能够给大家、朋友们带来一些些帮助,也希望自己能够继续坚持完成所有内容哈!

希望这个系列能够给大家、朋友们带来一些些帮助,也希望自己能够继续坚持完成所有内容哈!

然这里不是打广告,而是希望跟所有关注开源项目的好朋友一起探讨研究,共同促进学习讨论,也欢迎各位专家和朋友多拍拍砖,多提点意见。相关的材料都开源在这里:

cover.png

1. 推理系统

  1. 推理内容介绍(video

  2. 什么是推理系统(video

  3. 推理流程全景(video

  4. 推理系统架构(video

  5. (上) 推理引擎架构(video

  6. (下) 推理引擎架构(video

2. 模型小型化

  1. 推理参数了解(video

  2. (上) CNN模型小型化(video

  3. (下) CNN模型小型化(video

  4. Transformer小型化(video

3. 模型压缩

  1. 压缩四件套介绍(video

  2. 低比特量化原理(video

  3. 感知量化训练 QAT(video

  4. 训练后量化PTQ与部署(video

  5. 模型剪枝(video

  6. (上) 知识蒸馏原理(video

  7. (下) 知识蒸馏算法(video

4. 模型转换

  1. 基本介绍(video

  2. 架构与文件格式(video

  3. 自定义计算图IR(video

  4. 流程细节(video

5. 图优化模块

  1. 计算图优化策略(video

  2. 常量折叠&冗余节点消除(video

  3. 算子融合/替换/前移(video

  4. 数据布局转换&内存优化(video

6. Kernel优化

  1. Kernel优化架构(video

  2. 卷积操作基础原理(video

  3. Im2Col算法(video

  4. Winograd算法(video

  5. QNNPack算法(video

  6. 推理内存布局(video

完结,撒花!

上一篇 下一篇

猜你喜欢

热点阅读