LLMの出力から「学習に使われた特定の文章」をそのまま引き出してしまう攻撃を何というか。

モデルの重みの中に記憶された機密情報が漏洩するリスク。