简介

本文档将提供SRA_Inference的安装指南、接口说明与示例代码,旨在帮助用户快速熟悉SRA_Inference的使用。

SRA_Inference是华为提供的基于鲲鹏平台优化的推理加速套件。该套件实现了TensorFlow、ONNX Runtime等主流框架在鲲鹏处理器的高效适配与推理加速。

SRA_Inference概述

SRA_Inference的组成如表1所示。

表1 SRA_Inference组成部分

组件

描述

适用场景

KTFOP

KTFOP(Kunpeng Tensorflow Operator)鲲鹏TensorFlow算子库,是鲲鹏自研的高效的TensorFlow算子库。通过SIMD(Single Instruction Multiple Data)指令、多核调度等方法,提高CPU侧算子性能,减少CPU侧计算资源的占用,从而提高在线推理端到端整体的吞吐量。

适用于基于TensorFlow框架的推理运算任务。

KONNX

KONNX(Kunpeng ONNX Runtime)鲲鹏ONNX Runtime算子库,是鲲鹏自研的高效的ONNX Runtime算子库。通过pack(矩阵乘优化)、向量化等方法,提高CPU侧算子性能,减少CPU侧计算资源的占用,从而降低端到端推理的时延。

适用于基于ONNX Runtime的推理运算任务。

SRA_Inference仅适用于以下鲲鹏系列处理器型号:

应用场景

SRA_Inference主要在以下场景中使用: