Personalizer の統合と責任ある使用のためのガイダンス

重要

2023 年 9 月 20 日以降は、新しい Personalizer リソースを作成できなくなります。 Personalizer サービスは、2026 年 10 月 1 日に廃止されます。

Microsoft は、お客様が Azure AI Personalizer を使用することにより責任を持ってソリューションの開発とデプロイを行うことができるように支援しています。 Microsoft の原則的なアプローチは、AI システムの次のことを考慮することで、個人の主体性と尊厳を守ります。

  • 公平性、信頼性、安全性。
  • プライバシーとセキュリティ。
  • 包括性。
  • 透明性。
  • 人間のアカウンタビリティ。

これらの考慮事項には、責任ある AI の開発に対するコミットメントが反映されています。

統合と責任ある使用原則に関する一般的なガイドライン

AI を利用した製品または機能を統合し、責任を持って使用する準備をするときは、次のアクティビティが適切なセットアップの役に立ちます。

  • それが何をできるかを理解します。 Personalizer の可能性を完全に評価して、その機能と制限を理解します。 実際の状態とデータを使って十分にテストすることで、特定のシナリオとコンテキストでそれがどのように動作するかを理解します。

  • プライバシーに対する個人の権利を尊重します。 適法かつ正当な目的でのみ、個人からデータと情報を収集します。 この目的に使用することに対して同意を得たデータと情報のみを使用します。

  • 法的レビューを取得します。 Personalizer のレビューと、ソリューションでのその使用方法に対する、適切な法的アドバイスを得ます (特に、機密性やリスクの高いアプリケーションで使用する場合)。 作業で従う必要がある可能性のある制限と、将来発生する可能性のある問題を解決する責任について理解します。

  • 人間をループに組み込みます。 探索する一貫したパターン領域として人間の監視を含めます。 AI を利用する製品や機能を継続的に人間が監視できるようにします。 意思決定における人間の役割を維持します。 AI システムが想定どおりに動作しない場合に、損害を防ぎ、状況を管理するために、人間がソリューションにリアルタイムで介入できることを確認します。

  • 影響を受ける利害関係者との信頼を築きます。 影響を受ける利害関係者に、期待されるメリットと潜在的なリスクを伝えます。 データが必要な理由と、データの使用がどのように利益につながるかを、ユーザーが理解できるようにします。 データの取り扱いをわかりやすく説明します。

  • カスタム フィードバック ループを作成します。 ユーザーと個人がデプロイ後のサービスに関する問題を報告できるフィードバック チャネルを提供します。 AI を利用する製品または機能をデプロイした後は、継続的な監視と改善が必要です。 改善のためのフィードバックと提案を実装できるようにします。 影響を受けた利害関係者から質問や懸念事項を収集するためのチャネルを確立します。 システムによって直接的または間接的な影響を受ける可能性があるユーザーには、従業員、訪問者、一般市民が含まれます。

  • フィードバック: 開発と評価のプロセスの間に、コミュニティの多様なサンプリングからフィードバックを集めます (たとえば、歴史的に疎外されたグループ、障碍のある人々、サービス ワーカーなど)。 詳しくは、コミュニティ陪審を参照してください。

  • ユーザー調査: 同意または開示に関する推奨事項を、ユーザー調査に組み込む必要があります。 コミュニティの代表的なサンプルで最初のエクスペリエンスと継続的に使用されるエクスペリエンスを評価し、設計の選択が効果的な開示につながることを検証します。 10 から 20 人のコミュニティ メンバー (影響を受ける利害関係者) でユーザー調査を行って、情報の理解度を評価し、期待が満たされているかどうかを判断します。

  • 透明性と説明可能性: 各 Rank 呼び出しで、どの機能が Personalizer の決定選択に重要な役割を果たしているかをより深く理解するため、Personalizer の推論の説明可能性機能を有効にして使用することを検討してください。 この機能を使用すると、ユーザーのデータが推奨される最適なアクションを生成する際に、どのように役割を果たしたかについて、透明性をもってユーザーに提供できます。 たとえば、"これらを提案する理由" というラベルの付いたボタンをユーザーに表示して、どのような最上位の特徴が、Personalizer の結果の生成において役割を果たしたかを示すことができます。 また、この情報を使用して、ユーザー、コンテキスト、アクションに関するデータ属性が、Personalizer の最適なアクションの選択を優先して機能していて、それに対して動作していて、ほとんどまたはまったく効果がない可能性があるデータ属性をより深く理解するためにも使用できます。 この機能は、ユーザー セグメントに関する分析情報を提供し、潜在的なバイアスを特定して対処するのにも役立ちます。

  • 敵対的な使用: 悪意のある操作を検出して対処するプロセスを確立することを検討します。 機械学習と AI システムが環境から学習する能力を利用するアクターが存在します。 組織的な攻撃により、データや AI モデルを目標に合うように変える行動パターンを人工的に偽ることができます。 Personalizer の使用が重要な選択に影響を与える可能性がある場合は、これらの種類の攻撃の実行を検出して軽減するための適切な手段を用意します。

  • オプトアウト: ユーザーがパーソナライズされた推奨事項の受け取りをオプトアウトするためのコントロールを提供することを検討します。 このようなユーザーの場合は、Personalizer Rank API をアプリケーションから呼び出しません。 代わりに、アプリケーションで別のメカニズムを使って実行するアクションを決定できます。 たとえば、パーソナライズされた推奨事項をオプトアウトし、既定のアクションまたはベースライン アクションを選ぶと、Personalizer の推奨事項なしで実行されるアクションがユーザーに表示されます。 または、アプリケーションでは、集計または件数ベースのメジャーに基づく推奨事項を使用できます (たとえば、現在のトレンド、最も人気のある上位 10 件など)。

お客様の責任範囲

責任ある実装のためのすべてのガイドラインは、社会におけるこれらのアルゴリズムの使用の影響に対して責任を負い、説明責任を持つのは、Personalizer を使用する開発者と企業であるという基盤に基づいています。 自分の組織によってデプロイされるアプリケーションを開発する場合は、その運用に関する自分の役割および責任範囲と、そのアプリケーションがユーザーに与える影響を認識する必要があります。 サード パーティによってデプロイされるアプリケーションを設計する場合は、アプリケーションの動作に対して最終的に責任を負うのはだれなのかについて共通の理解を形成します。 その理解を必ず文書化します。

質問とフィードバック

Microsoft では、お客様がこれらの責任に基づいて行動するのを助けるために、ツールとドキュメントを継続的にアップグレードしています。 担当チームより、Personalizer の使用に関するこれらのガイドラインの実装に役立つと思われる他のツール、製品機能、ドキュメントがありましたら、Microsoft までフィードバックをお送りくださるようお願いします

  • AI の責任ある開発に関する Microsoft の 6 つの原則については、2018 年 1 月に発行された書籍『The Future Computed』でご確認ください。

次のステップ

Personalizer API が特徴を受け取る方法を理解します: 特徴: アクションとコンテキスト