コンテンツにスキップ

インストール

ONNX Runtime generate() APIのインストール

Section titled “ONNX Runtime generate() APIのインストール”

Pythonパッケージのインストール

Section titled “Pythonパッケージのインストール”

注意:これらのパッケージセット(CPU、DirectML、CUDA)のうち、環境にインストールする必要があるのは1つだけです。

Terminal window
pip install onnxruntime-genai
Terminal window
pip install onnxruntime-genai-directml

onnxruntime-genaiのCUDAバリアントをインストールする場合、CUDAツールキットをインストールする必要があります。

CUDAツールキットはCUDAツールキットアーカイブからダウンロードできます。

CUDA_PATH環境変数がCUDAのインストール場所に設定されていることを確認してください。

Terminal window
pip install onnxruntime-genai-cuda

このAPIをCUDA 11で使用するには、ソースからビルドしてインストールする必要があります。

注意:プロジェクトには、これらのパッケージ(CPU、DirectML、CUDA)のうち1つだけをインストールしてください。

ONNX Runtime generate()バージョン0.3.0以前は、コアONNX Runtimeバイナリがバンドルされていました。バージョン0.4.0以降、パッケージは分離され、より柔軟な開発者エクスペリエンスが可能になりました。

Terminal window
dotnet add package Microsoft.ML.OnnxRuntimeGenAI

注意:バージョン0.3.0以前ではCUDA 11のみがサポートされ、バージョン0.4.0以降ではCUDA 12のみがサポートされます。

Terminal window
dotnet add package Microsoft.ML.OnnxRuntimeGenAI.Cuda
Terminal window
dotnet add package Microsoft.ML.OnnxRuntimeGenAI.DirectML