HOMELv015 Triton Inference Serverを利用して、複数のモデルタイプ(TensorFlow, ONNX等)を単一のエンドポイントでホストする構成は可能か。 2026年3月16日 Tritonは多種類のフレームワークに対応しており、単一サーバー内で異種モデルを同時にサービングしたり、アンサンブルしたりすることが可能。 GPUクラスターでの分散学習において、InfiniBandをサポートするVMシリーズ(NC/NDシリーズ等)を選択する主な理由は何か。 Azure MLの「データエクスポート」機能を使用して、モデルの予測結果やログを長期保存・分析するために転送する先として適切なものは。