AI推理SDK集成指南
在嵌入式设备上运行AI推理的SDK导入步骤与模型转换指南。
支持的框架
- TensorFlow Lite → Rockchip NPU(RV1126B)
- ONNX Runtime → DRP-AI(RZ/V2H)
- OpenCV DNN → CPU后备方案
模型转换流程
- 导出已训练模型(TensorFlow / PyTorch)
- 通过量化(INT8/FP16)优化模型大小
- 面向NPU/DRP-AI进行编译
- 通过SDK API加载模型并执行推理
API参考
int csun_ai_load_model(const char *model_path, csun_model_handle_t *handle);int csun_ai_infer(csun_model_handle_t *handle, csun_tensor_t *input, csun_tensor_t *output);支持的模型
- 物体检测: YOLOv5/v8, MobileNet SSD
- 分类: ResNet, EfficientNet
- 分割: DeepLabV3