PyTorchの分散学習において、`TorchDistributor`は各ワーカーノードでのプロセス起動に内部的に何を使用しているか。

SparkのBarrier Execution Modeを利用することで、すべてのタスクが同時に起動し、相互通信(AllReduce等)が可能になることを保証している。