Amazon SageMakerの「XGBoost」アルゴリズムで、各ステップでの学習を調整するパラメータである「eta(学習率)」を小さく設定した場合、併せてどのパラメータを増やすことが一般的か。

学習率を下げると1ステップあたりの進みが遅くなるため、十分な精度を出すにはより多くの反復(木の追加)が必要になります。