跳转到内容

AI推理SDK集成指南

在嵌入式设备上运行AI推理的SDK导入步骤与模型转换指南。

支持的框架

  • TensorFlow Lite → Rockchip NPU(RV1126B)
  • ONNX Runtime → DRP-AI(RZ/V2H)
  • OpenCV DNN → CPU后备方案

模型转换流程

  1. 导出已训练模型(TensorFlow / PyTorch)
  2. 通过量化(INT8/FP16)优化模型大小
  3. 面向NPU/DRP-AI进行编译
  4. 通过SDK API加载模型并执行推理

API参考

int csun_ai_load_model(const char *model_path, csun_model_handle_t *handle);
int csun_ai_infer(csun_model_handle_t *handle, csun_tensor_t *input, csun_tensor_t *output);

支持的模型

  • 物体检测: YOLOv5/v8, MobileNet SSD
  • 分类: ResNet, EfficientNet
  • 分割: DeepLabV3