Apache Sparkを利用して、S3上の数十テラバイトのデータを分散処理する場合、ノードのメモリ不足を回避するための最も適切な対策はどれか。

Sparkジョブの設定でメモリ割り当てを増やすのが直接的な対策。