AI推論SDK インテグレーションガイド
組み込みデバイスでAI推論を実行するためのSDK導入手順とモデル変換ガイドです。
対応フレームワーク
- TensorFlow Lite → Rockchip NPU(RV1126B)
- ONNX Runtime → DRP-AI(RZ/V2H)
- OpenCV DNN → CPUフォールバック
モデル変換フロー
- 学習済みモデル(TensorFlow / PyTorch)をエクスポート
- 量子化(INT8/FP16)でモデルサイズを最適化
- NPU/DRP-AI向けにコンパイル
- SDK APIでモデルをロードし推論実行
APIリファレンス
int csun_ai_load_model(const char *model_path, csun_model_handle_t *handle);int csun_ai_infer(csun_model_handle_t *handle, csun_tensor_t *input, csun_tensor_t *output);対応モデル
- 物体検出: YOLOv5/v8, MobileNet SSD
- 分類: ResNet, EfficientNet
- セグメンテーション: DeepLabV3