HOMELv026 【シナリオ】Model Servingへのリクエストがスパイク(急増)し、オートスケールが間に合わずにリクエストがドロップしている。スケールアウトの感度を上げるのではなく、スパイクを吸収するために有効なアーキテクチャパターンはどれか。 2026年3月8日 リアルタイム性が厳密に要求されない場合、リクエストを一度キュー(Kafka等)にバッファリングし、バックグラウンドで処理する非同期パターンを採用することで、急激な負荷変動を平準化し、ドロップを防ぐことができる。 【シナリオ】AutoMLで生成されたモデルを本番運用しているが、推論データに、学習時には存在しなかった新しいカテゴリ値が含まれるようになり、エラーが発生している。AutoMLの再学習以外で即座に取れる対策はどれか。 【シナリオ】監視ダッシュボードで「特定のモデルバージョンだけエラー率が高い」ことがわかった。この原因が「特定の入力データパターン」に起因するかどうかを調査するために、Inference Tableに対してどのようなクエリを実行すべきか。