Spark MLlibの学習ジョブが「OutOfMemoryError」で失敗する場合、最初に検討すべき対処法はどれか。

メモリ不足は、割当メモリを増やすか、データの並列度(パーティション)を上げて1タスクあたりのデータ量を減らすことで対処するのが一般的である。