「AIの自律性」に伴う倫理的・安全上のリスクに対し、QAチームが行う「レッドチーミング」とは何か。

防御を固めるだけでなく、能動的にシステムの限界や脆弱性を「壊しに行く」ことで安全性を検証する。