Lab 3.4 Content Safety with Azure AI Foundry before production
Annotation availability in each API version
前提 条件
- AI Hub と AI プロジェクト リソースを作成できる Azure サブスクリプション
- ファインチューンしたモデルを登録し、Azure AI Foundry に LLM をデプロイ済み
タスク
- エンドユーザーからの問題のあるプロンプトをフィルタリングします
- LLMを呼び出す前に、プロンプトのhamfulキーワードを書き換えます
- リスクとコスト管理のメトリックを使用してサービスを監視します
目次
- 1️⃣ コンテンツの安全性を使用してトレーニングデータセットをテストする
- 3️⃣ カスタムブロックリストを作成して、プロンプト内の不適切なキーワードを管理します
- 2️⃣ オーケストレーション フローの有害なコンテンツにフィルター処理するようにコンテンツ セーフティを構成する
- 4️⃣ デプロイされたアプリケーションをメトリクスで監視する
クエリレート
- Content Safety 機能には、1 秒あたりのリクエスト数 (RPS) または 10 秒あたりのリクエスト数 (RP10S) のクエリレート制限があります。各機能のレート制限については、次の表を参照してください。link: Content Safety のクエリ率
価格レベル | モデレーションAPI (テキストと画像) |
プロンプトシールド | 保護材料 検出 |
接地検出 (プレビュー) |
カスタム カテゴリ (急速) (プレビュー) |
カスタム カテゴリ (標準) (プレビュー) |
マルチ モーダル |
---|---|---|---|---|---|---|---|
F0 キー | 5 RPSの | 5 RPSの | 5 RPSの | 該当なし | 5 RPSの | 5 RPSの | 5 RPSの |
S0 | 1000 RP10Sの | 1000 RP10Sの | 1000 RP10Sの | 50 RPSの | 1000 RP10Sの | 5 RPSの | 10 RPSの |
Jupyter Notebookを通じて作業
- Jupyter NotebookでPython sdkを使用してContent Safetyを作成して、実行してみましょう。有害なコンテンツにフィルタリングする方法を学びます。contentsafety_with_code_en.ipynb または日本語版 contentsafety_with_code_ja.ipynb