HOMELv009 【シナリオ】PyTorch Lightningを使用してDatabricks上で分散学習を行いたい。コードを大幅に書き換えずに、Horovodの代わりに推奨される最新の分散実行方法はどれか。 2026年3月8日 DatabricksおよびSparkの最新環境では、`TorchDistributor`を使用することで、PyTorch Lightning等のネイティブコードをラップして容易にSparkクラスタ上で分散実行できる。 【シナリオ】数十億行あるデータセットでK-Meansクラスタリングを実行しようとしたところ、イテレーションごとに非常に時間がかかり、シャッフルエラーが発生した。パフォーマンスを改善するために検討すべき設定はどれか。 【シナリオ】AutoMLで生成されたモデルの精度は高いが、推論速度が要件(10ms以下)を満たしていない。生成されたノートブックをもとに改善するアプローチとして最も適切なものはどれか。