LLMの出力から「学習データに含まれる機密情報」を抽出されるリスクに対し;学習時にノイズを加えて数学的に保護する手法はどれか。

個別のデータが学習結果に与える影響を制限し;プライバシーを担保する。