Lab 3.2.2 SLM and LLM comparison with Azure AI Foundry Prompt Flow (UI)

前提 条件

  • AI Hub と AI プロジェクト リソースを作成できる Azure サブスクリプション
  • Azure ML Studio での微調整されたモデルのオンライン エンドポイント
  • Azure AI Foundry にデプロイされた gpt-4o モデル

タスク

  • 適切なモデルを決定するために、テスト、ログトレース、監視を行います

目次

1️⃣ Create another model using LLM Node 
2️⃣ Interact with the Chat: Test and trace the chat flow

1️(2) LLMノードを使用して別のモデルを作成し、結果を比較する

  1. 新しい LLM ノードを作成して、異なるモデルとプロンプトをテストします。 新しい LLM ノードの作成

  2. LLM ノード名を入力し、モデル タイプとして LLM を選択します LLM ノード名を入力します

  3. LLM ノードの接続パラメータを追加して、デプロイされた LLM モデルを呼び出し、[検証して入力を解析] をクリックします。LLM ノードに入力を追加することを忘れないでください。 接続パラメータを追加する

  4. LLM ノードに出力をさらに追加して、LLM モデルから生成されたテキストを取得します。チャット出力ラジオボックスをオンにすると、生成されたテキストがチャットウィンドウに表示されます。 接続パラメータを追加する

  5. LLM ノードを保存し、チャット フローを実行して LLM モデルをテストします LLM ノードの保存

2️⃣ チャットとの対話:チャットフローをテストおよび追跡します

  1. チャットウィンドウで phi3.5 と LLM モデルをテストしてみましょう PHI3.5 モデルと LLM モデルのテスト

  2. phi3.5 と LLM の両方が正常に実行されたことを確認できます LLM ノードの保存

  3. [出力の表示] をクリックして、各モデルの出力を確認します [出力の表示] をクリックします

  4. 各モデルをトレースして、モデルのパフォーマンスと動作を確認できます 各モデルをトレースする

  5. Azure ML Studio に戻ると、ログを取得し、エンドポイントを監視して、モデルのパフォーマンスと動作を確認できます。 エンドポイント エンドポイントログの監視


Distributed by an MIT license. This hands-on lab was developed by Microsoft AI GBB (Global Black Belt).