HOMELv018 分散トレーニングにおいて、`global_batch_size`(全体のバッチサイズ)と `per_device_batch_size`(GPUごとのバッチサイズ)の関係として正しい式はどれか。 2026年3月8日 分散学習におけるグローバルバッチサイズは、各デバイス(GPU)が処理するミニバッチサイズの総和(デバイス数倍)となるため、学習率のスケーリング(Linear Scaling Rule)などを考慮する必要がある。 【シナリオ】Databricks Repos(Git連携)を使用して開発している。MLflowのRunに、実行時点のGitコミットハッシュを自動的に記録し、コードのバージョン管理と実験結果を紐付ける機能はどれか。 Databricks AutoMLが生成する「探索ノートブック(Trial Notebooks)」の主な利用価値は何か。