コンテンツにスキップ

ONNX Runtime

ハードウェア固有のライブラリを統合するための柔軟なインターフェイスを備えた、クロスプラットフォームの機械学習モデルアクセラレータ

ONNX Runtimeは、PyTorch、Tensorflow/Keras、TFLite、scikit-learn、およびその他のフレームワークのモデルで使用できます。

ONNX Runtimeを始めるための基本的なガイド

クイックスタートテンプレート

Section titled “クイックスタートテンプレート”

ONNX Runtime Inferenceは、Office、Azure、Bingなどの主要なMicrosoft製品およびサービス、さらに数十のコミュニティプロジェクトで機械学習モデルを強化しています。

ONNX Runtime推論のユースケースの例は次のとおりです。

  • さまざまなMLモデルの推論パフォーマンスを向上させる
  • さまざまなハードウェアおよびオペレーティングシステムで実行する
  • Pythonでトレーニングするが、C#/C++/Javaアプリにデプロイする
  • さまざまなフレームワークで作成されたモデルでトレーニングと推論を実行する

前提は単純です。

  1. モデルを取得します。 これは、ONNX形式へのエクスポート/変換をサポートする任意のフレームワークからトレーニングできます。人気のあるフレームワーク/ライブラリについては、チュートリアルを参照してください。
  2. ONNX Runtimeでモデルをロードして実行します。 さまざまな言語でモデルを実行する方法については、基本的なチュートリアルを参照してください。
  3. (オプション) さまざまなランタイム構成またはハードウェアアクセラレータを使用してパフォーマンスを調整します。 ここには多くのオプションがあります - パフォーマンスセクションを開始点として参照してください。

ステップ3がなくても、ONNX Runtimeは元のフレームワークと比較してパフォーマンスが向上することがよくあります。

ONNX Runtimeは、モデルグラフに多数のグラフ最適化を適用し、利用可能なハードウェア固有のアクセラレータに基づいてサブグラフに分割します。コアONNX Runtimeの最適化された計算カーネルはパフォーマンスを向上させ、割り当てられたサブグラフは各実行プロバイダーからのさらなる高速化の恩恵を受けます。


トレーニングのためのONNX Runtime

Section titled “トレーニングのためのONNX Runtime”