Lab 3.4 Content Safety with Azure AI Foundry before production

LLMOps Annotation availability in each API version

前提 条件

  • AI Hub と AI プロジェクト リソースを作成できる Azure サブスクリプション
  • ファインチューンしたモデルを登録し、Azure AI Foundry に LLM をデプロイ済み

タスク

  • エンドユーザーからの問題のあるプロンプトをフィルタリングします
  • LLMを呼び出す前に、プロンプトのhamfulキーワードを書き換えます
  • リスクとコスト管理のメトリックを使用してサービスを監視します

目次

  • 1️⃣ コンテンツの安全性を使用してトレーニングデータセットをテストする
  • 3️⃣ カスタムブロックリストを作成して、プロンプト内の不適切なキーワードを管理します
  • 2️⃣ オーケストレーション フローの有害なコンテンツにフィルター処理するようにコンテンツ セーフティを構成する
  • 4️⃣ デプロイされたアプリケーションをメトリクスで監視する

クエリレート

  • Content Safety 機能には、1 秒あたりのリクエスト数 (RPS) または 10 秒あたりのリクエスト数 (RP10S) のクエリレート制限があります。各機能のレート制限については、次の表を参照してください。link: Content Safety のクエリ率
価格レベル モデレーションAPI
(テキストと画像)
プロンプトシールド 保護材料
検出
接地検出
(プレビュー)
カスタム カテゴリ
(急速) (プレビュー)
カスタム カテゴリ
(標準) (プレビュー)
マルチ モーダル
F0 キー 5 RPSの 5 RPSの 5 RPSの 該当なし 5 RPSの 5 RPSの 5 RPSの
S0 1000 RP10Sの 1000 RP10Sの 1000 RP10Sの 50 RPSの 1000 RP10Sの 5 RPSの 10 RPSの

Jupyter Notebookを通じて作業


Distributed by an MIT license. This hands-on lab was developed by Microsoft AI GBB (Global Black Belt).