鲲鹏社区首页
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助

使用步骤

AI4C支持用户调用API使用自定义模型进行推理,也支持借助编译选项使用预设模型使用采样反馈优化能力增强特性和优化选项调优特性。

使用自定义模型推理:

  1. 开发者首先需要构建自己的模型并借助onnxruntime保存成一个ONNX模型
  2. 用户需要在目标优化遍的适配层里调用AI4C提供的API,进行模型的推理,如下表所示。下表的接口存在动态库libONNXRunner.so中,用于模型的推理配置阶段、推理运行阶段和模型推理结束后的资源清理阶段。

    API名

    说明

    extern ONNXRunner* createONNXRunner(const char* model_path)

    参数为模型存放的路径,并创建session对本次推理进行初始化和配置

    extern void deleteONNXRunner(ONNXRunner* instance)

    删除ONNXRunner对象

    extern float runONNXModel(ONNXRunner* instance, std::vector<std::string> input_string, std::vector<int64_t> input_int64, std::vector<float> input_float)

    参数为模型的输入,将输入传入模型进行推理得到相应结果