大規模言語モデル(LLM)をファインチューニングする際、計算コストを抑えるために全パラメータではなく一部の重みのみを更新する手法群の総称は。

LoRAやAdapterなどのPEFT技術は、少数のパラメータを追加・学習させるだけで、LLMを特定のタスクに適応させる手法である。