Sparkの設定「spark.sql.shuffle.partitions」のデフォルト値は通常いくつか。

デフォルトは200だが、データ量に応じてこの値を調整することがパフォーマンスチューニングの重要なステップとなる。