コンテンツにスキップ

AI推論SDK インテグレーションガイド

組み込みデバイスでAI推論を実行するためのSDK導入手順とモデル変換ガイドです。

対応フレームワーク

  • TensorFlow Lite → Rockchip NPU(RV1126B)
  • ONNX Runtime → DRP-AI(RZ/V2H)
  • OpenCV DNN → CPUフォールバック

モデル変換フロー

  1. 学習済みモデル(TensorFlow / PyTorch)をエクスポート
  2. 量子化(INT8/FP16)でモデルサイズを最適化
  3. NPU/DRP-AI向けにコンパイル
  4. SDK APIでモデルをロードし推論実行

APIリファレンス

int csun_ai_load_model(const char *model_path, csun_model_handle_t *handle);
int csun_ai_infer(csun_model_handle_t *handle, csun_tensor_t *input, csun_tensor_t *output);

対応モデル

  • 物体検出: YOLOv5/v8, MobileNet SSD
  • 分類: ResNet, EfficientNet
  • セグメンテーション: DeepLabV3