Triton Inference Serverを利用して、複数のモデルタイプ(TensorFlow, ONNX等)を単一のエンドポイントでホストする構成は可能か。

Tritonは多種類のフレームワークに対応しており、単一サーバー内で異種モデルを同時にサービングしたり、アンサンブルしたりすることが可能。