ONNX Runtimeのインストール
ONNX Runtimeのインストール
Section titled “ONNX Runtimeのインストール”目的のターゲットオペレーティングシステム、ハードウェア、アクセラレータ、および言語の組み合わせの推奨手順については、インストールマトリックスを参照してください。
OSのバージョン、コンパイラ、言語のバージョン、依存ライブラリなどの詳細については、 互換性を参照してください。
-
すべてのビルドには、
en_US.UTF-8ロケールの英語言語パッケージが必要です。Linuxでは、locale-gen en_US.UTF-8とupdate-locale LANG=en_US.UTF-8を実行してlanguage-pack-enパッケージ をインストールします。 -
Windowsビルド にはVisual C++ 2019ランタイムが必要です。 最新バージョンを推奨します。
CUDAとCuDNN
Section titled “CUDAとCuDNN”ONNX Runtime GPUパッケージの場合、CUDAとcuDNNをインストールする必要があります。CUDA実行プロバイダーの要件で互換性のあるCUDAとcuDNNのバージョンを確認してください。
- Zlibは、LinuxのみのcuDNN 9.x(zlibはcuDNN 9.x Windowsダイナミックライブラリに静的にリンクされています)、またはLinuxおよびWindowsのcuDNN 8.xで必要です。cuDNN 8.9インストールガイドに従って、LinuxまたはWindowsにzlibをインストールします。
- Windowsでは、CUDA
binおよびcuDNNbinディレクトリのパスをPATH環境変数に追加する必要があります。 - Linuxでは、CUDA
lib64およびcuDNNlibディレクトリのパスをLD_LIBRARY_PATH環境変数に追加する必要があります。
onnxruntime-gpuパッケージの場合、CUDAまたはcuDNNを手動でインストールしなくてもPyTorchで動作させることが可能です。詳細については、PyTorchとの互換性を参照してください。
Pythonのインストール
Section titled “Pythonのインストール”ONNX Runtime CPUのインストール
Section titled “ONNX Runtime CPUのインストール”pip install onnxruntimeナイトリーのインストール
Section titled “ナイトリーのインストール”pip install flatbuffers numpy packaging protobuf sympypip install --pre --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/ORT-Nightly/pypi/simple/ onnxruntimeONNX Runtime GPU (DirectML) - 持続的エンジニアリングモードのインストール
Section titled “ONNX Runtime GPU (DirectML) - 持続的エンジニアリングモードのインストール”注意: DirectMLは持続的エンジニアリング段階にあります。新しいWindowsプロジェクトでは、代わりにWinMLを検討してください。
pip install onnxruntime-directmlナイトリーのインストール
Section titled “ナイトリーのインストール”pip install flatbuffers numpy packaging protobuf sympypip install --pre --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/ORT-Nightly/pypi/simple/ onnxruntime-directmlONNX Runtime GPU (CUDA 12.x) のインストール
Section titled “ONNX Runtime GPU (CUDA 12.x) のインストール”1.19.0以降、pypiのonnxruntime-gpuのデフォルトのCUDAバージョンは12.xです。
pip install onnxruntime-gpuナイトリーのインストール
Section titled “ナイトリーのインストール”pip install flatbuffers numpy packaging protobuf sympypip install --pre --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/ORT-Nightly/pypi/simple/ onnxruntime-gpu以前のバージョンについては、こちらからダウンロードできます:1.18.1、1.18.0
ONNX Runtime GPU (CUDA 11.x) のインストール
Section titled “ONNX Runtime GPU (CUDA 11.x) のインストール”Cuda 11.xの場合、1.19.2以降についてはORT Azure Devops Feedからインストールするには、次の手順に従ってください。
pip install flatbuffers numpy packaging protobuf sympypip install onnxruntime-gpu --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-11/pypi/simple/以前のバージョンについては、こちらからダウンロードできます:1.18.1、1.18.0
ONNX Runtime QNNのインストール
Section titled “ONNX Runtime QNNのインストール”pip install onnxruntime-qnnナイトリーのインストール
Section titled “ナイトリーのインストール”pip install flatbuffers numpy packaging protobuf sympypip install --pre --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/ORT-Nightly/pypi/simple/ onnxruntime-qnnONNX Runtime GPU (ROCm) のインストール
Section titled “ONNX Runtime GPU (ROCm) のインストール”ROCmの場合、AMD ROCmインストール・ドキュメントの指示に従ってインストールしてください。ONNX RuntimeのROCm実行プロバイダーは、ROCm 6.2.0でビルドおよびテストされています。
Linuxでソースからビルドするには、こちらの指示に従ってください。
C#/C/C++/WinMLのインストール
Section titled “C#/C/C++/WinMLのインストール”ONNX Runtimeのインストール
Section titled “ONNX Runtimeのインストール”ONNX Runtime CPUのインストール
Section titled “ONNX Runtime CPUのインストール”# CPUdotnet add package Microsoft.ML.OnnxRuntimeONNX Runtime GPU (CUDA 12.x) のインストール
Section titled “ONNX Runtime GPU (CUDA 12.x) のインストール”ORTのデフォルトのCUDAバージョンは12.xです
# GPUdotnet add package Microsoft.ML.OnnxRuntime.GpuONNX Runtime GPU (CUDA 11.8) のインストール
Section titled “ONNX Runtime GPU (CUDA 11.8) のインストール”- プロジェクトのセットアップ
Azure Artifactsキーリングの最新バージョンが
そのGithubリポジトリからインストールされていることを確認してください。
.csprojファイルと同じディレクトリにプロジェクトにnuget.configファイルを追加します。
<?xml version="1.0" encoding="utf-8"?><configuration> <packageSources> <clear/> <add key="onnxruntime-cuda-11" value="https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-11/nuget/v3/index.json"/> </packageSources></configuration>- パッケージの復元
パッケージを復元します(インタラクティブフラグを使用すると、dotnetが資格情報を要求できます)
dotnet add package Microsoft.ML.OnnxRuntime.Gpu注意:毎回—interactiveは必要ありません。dotnetは、更新された資格情報が必要な場合に—interactiveを追加するように要求します。
DirectML (持続的エンジニアリング - 新規プロジェクトではWinMLを使用)
Section titled “DirectML (持続的エンジニアリング - 新規プロジェクトではWinMLを使用)”dotnet add package Microsoft.ML.OnnxRuntime.DirectML注意: DirectMLは持続的エンジニアリング段階にあります。新規のWindowsプロジェクトでは、代わりにWinMLを使用してください。
WinML (Windowsに推奨)
Section titled “WinML (Windowsに推奨)”dotnet add package Microsoft.AI.MachineLearningWebおよびモバイルへのインストール
Section titled “Webおよびモバイルへのインストール”ビルド済みパッケージは、すべてのONNX opsetと演算子を完全にサポートしています。
ビルド済みパッケージが大きすぎる場合は、カスタムビルドを作成できます。 カスタムビルドでは、モデル内のopsetと演算子のみを含めることでサイズを削減できます。
JavaScriptのインストール
Section titled “JavaScriptのインストール”ONNX Runtime Web (ブラウザ) のインストール
Section titled “ONNX Runtime Web (ブラウザ) のインストール”# 最新のリリースバージョンをインストールnpm install onnxruntime-web
# ナイトリービルドの開発バージョンをインストールnpm install onnxruntime-web@devONNX Runtime Node.jsバインディング (Node.js) のインストール
Section titled “ONNX Runtime Node.jsバインディング (Node.js) のインストール”# 最新のリリースバージョンをインストールnpm install onnxruntime-nodeONNX Runtime for React Nativeのインストール
Section titled “ONNX Runtime for React Nativeのインストール”# 最新のリリースバージョンをインストールnpm install onnxruntime-react-nativeiOSへのインストール
Section titled “iOSへのインストール”CocoaPodsのPodfileに、使用したいAPIに応じてonnxruntime-cまたはonnxruntime-objc podを追加します。
use_frameworks!
pod 'onnxruntime-c'Objective-C
Section titled “Objective-C”use_frameworks!
pod 'onnxruntime-objc'pod installを実行します。
カスタムビルド
Section titled “カスタムビルド”カスタムiOSパッケージの作成手順を参照してください。
Androidへのインストール
Section titled “Androidへのインストール”Java/Kotlin
Section titled “Java/Kotlin”Android Studioプロジェクトで、次の変更を加えます。
-
build.gradle (プロジェクト):
repositories {mavenCentral()} -
build.gradle (モジュール):
dependencies {implementation 'com.microsoft.onnxruntime:onnxruntime-android:latest.release'}
MavenCentralでホストされているonnxruntime-android AARをダウンロードし、ファイル拡張子を.aarから.zipに変更して解凍します。
NDKプロジェクトに、headersフォルダのヘッダーファイルと、jniフォルダの関連するlibonnxruntime.soダイナミックライブラリを含めます。
カスタムビルド
Section titled “カスタムビルド”カスタムAndroidパッケージの作成手順を参照してください。
オンデバイストレーニングのインストール
Section titled “オンデバイストレーニングのインストール”特に明記しない限り、このセクションのインストール手順は、オンデバイストレーニングを実行するために設計されたビルド済みパッケージを指します。
ビルド済みトレーニングパッケージがモデルをサポートしているが、大きすぎる場合は、 カスタムトレーニングビルドを作成できます。
オフラインフェーズ - トレーニングの準備
Section titled “オフラインフェーズ - トレーニングの準備”python -m pip install cerberus flatbuffers h5py numpy>=1.16.6 onnx packaging protobuf sympy setuptools>=41.4.0pip install -i https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/ORT/pypi/simple/ onnxruntime-training-cpuトレーニングフェーズ - オンデバイストレーニング
Section titled “トレーニングフェーズ - オンデバイストレーニング”| デバイス | 言語 | パッケージ名 | インストール手順 |
|---|---|---|---|
| Windows | C, C++, C# | Microsoft.ML.OnnxRuntime.Training |
dotnet add package Microsoft.ML.OnnxRuntime.Training
|
| Linux | C, C++ | onnxruntime-training-linux*.tgz |
|
| Python | onnxruntime-training |
pip install onnxruntime-training
|
|
| Android | C, C++ | onnxruntime-training-android |
|
| Java/Kotlin | onnxruntime-training-android | Android Studioプロジェクトで、次の変更を加えます。
|
|
| iOS | C, C++ | CocoaPods: onnxruntime-training-c |
|
| Objective-C | CocoaPods: onnxruntime-training-objc |
|
|
| Web | JavaScript, TypeScript | onnxruntime-web |
npm install onnxruntime-web
|
大規模モデルのトレーニング
Section titled “大規模モデルのトレーニング”pip install torch-ortpython -m torch_ort.configure注意: これにより、CUDAライブラリの特定のバージョンにマッピングされたtorch-ortおよびonnxruntime-trainingパッケージのデフォルトバージョンがインストールされます。onnxruntime.aiのインストールオプションを参照してください。
全言語の推論インストール表
Section titled “全言語の推論インストール表”以下の表は、公式にサポートされているパッケージとして利用可能なビルドバリアントをリストしています。その他は、各リリースブランチからソースからビルドできます。
一般的な要件に加えて、以下の表の追加の要件と依存関係に注意してください。
注意:メインブランチから作成されたナイトリービルドは、公式リリース間の新しい変更をテストするために利用できます。 これらは自己責任で使用してください。ナイトリービルドのサポートは限定されているため、本番ワークロードに展開することは強くお勧めしません。
全言語のトレーニングインストール表
Section titled “全言語のトレーニングインストール表”より詳細なインストール手順については、最適化されたトレーニングの開始ページを参照してください。