HOMELv002 Sparkの設定「spark.sql.shuffle.partitions」のデフォルト値は通常いくつか。 2026年3月8日 デフォルトは200だが、データ量に応じてこの値を調整することがパフォーマンスチューニングの重要なステップとなる。 Delta Live Tablesで「APPLY CHANGES INTO」構文を使用する主な目的はどれか。 Databricks Jobsの「Repair and Rerun」機能が役立つのはどのような場面か。