LLMのファインチューニング手法「LoRA」において、学習対象となる行列のランク(階数)はどう設定されるか。

パラメータ更新量を低ランク行列の積(A×B)で近似することで、学習すべきパラメータ数を劇的に削減する。