Spark DataFrameのデータをPyTorchのDataLoaderで使用する際、`num_workers`を増やすとエラーが発生する場合がある。Spark環境特有の原因として考えられるものはどれか。

PyTorchのDataLoaderが`multiprocessing`を使用する場合、Sparkの接続オブジェクトなどを子プロセスにシリアライズ(Pickle)して渡すことができず、エラーになることがある(通常は`num_workers=0`にするか、Petastorm/TorchDistributorの適切な設定が必要)。