複数の学習モデルを組み合わせることで、単一モデルよりも高い予測精度を得ようとする手法はどれか。

バギング(ランダムフォレスト等)やブースティング(XGBoost等)などのアンサンブル学習は、複数のモデルの意見を統合することで汎化性能を向上させる。