検索エンジンのクローラー(ロボット)に対して、ページの収集を拒否するために記述するファイルはどれか。

robots.txtをルートディレクトリに設置することで、クローラーのアクセス制御を指定できる。