Leitfaden zu Integration und verantwortungsvoller Verwendung der Personalisierung

Wichtig

Ab dem 20. September 2023 können Sie keine neuen Personalisierungsressourcen mehr erstellen. Der Personalisierungsdienst wird am 1. Oktober 2026 eingestellt.

Es ist ein Ziel der Arbeit von Microsoft, Kunden bei der verantwortungsbewussten Entwicklung und Bereitstellung von Lösungen mithilfe der Azure KI Personalisierung zu unterstützen. Unser auf Grundsätzen basierender Ansatz gibt der persönlichen Handlungsmacht und Würde einen hohen Stellenwert, indem er diese Eigenschaften von KI-Systemen berücksichtigt:

  • Fairness, Zuverlässigkeit und Sicherheit
  • Datenschutz und -sicherheit
  • Inklusion
  • Transparenz
  • Menschliche Verantwortlichkeit

Diese Überlegungen spiegeln unser Engagement für die verantwortungsbewusste Entwicklung von KI wider.

Allgemeine Richtlinien für Prinzipien zur Integration und verantwortungsvollen Nutzung

Wenn Sie bereit sind, KI-gestützte Produkte oder Features zu integrieren und verantwortungsbewusst zu nutzen, helfen Ihnen die folgenden Aktivitäten bei der erfolgreichen Einrichtung:

  • Verstehen der Möglichkeiten Vollständige Bewertung des Potenzials der Personalisierung, um ihre Funktionen und Einschränkungen zu verstehen. Verstehen Sie ihre Ausführung in Ihrem bestimmten Szenario und Kontext durch gründliches Testen unter realen Bedingungen und mit realen Daten.

  • Respektieren des Rechts von Personen auf Datenschutz. Sammeln Sie Daten und Informationen von Personen nur für rechtmäßige und gerechtfertigte Zwecke. Verwenden Sie nur Daten und Informationen, die Sie für diesen Zweck verwenden müssen.

  • Einholen einer rechtlichen Bewertung. Holen Sie geeigneten juristischen Rat ein, um die Personalisierung und ihren Einsatz in Ihrer Lösung zu überprüfen, insbesondere wenn Sie sie in vertraulichen oder risikoreichen Anwendungen verwenden möchten. Verstehen Sie, innerhalb welcher Einschränkungen Sie möglicherweise arbeiten müssen, und ihre Verantwortung, eventuell in Zukunft auftretende Probleme zu beheben.

  • Einbeziehung von Menschen. Schließen Sie menschliche Aufsicht als durchgängiges Muster der Untersuchung ein. Stellen Sie eine konstante menschliche Aufsicht des KI-gestützten Produkts oder Features sicher. Halten Sie die Rolle von Menschen in der Entscheidungsfindung aufrecht. Stellen Sie sicher, dass menschliches Eingreifen in der Lösung in Echtzeit möglich ist, um Schäden zu verhindern und Situationen zu meistern, in denen das KI-System nicht die erwarteten Leistungen erbringt.

  • Bauen Sie das Vertrauen der betroffenen Stakeholder auf. Kommunizieren Sie die erwarteten Vorteile und potenziellen Risiken für betroffene Beteiligte. Helfen Sie den Menschen zu verstehen, warum die Daten erforderlich sind und inwiefern ihre Verwendung zu ihrem Vorteil ist. Beschreiben Sie die Datenverarbeitung auf verständliche Weise.

  • Erstellen Sie eine Feedbackschleife für Kunden. Geben Sie einen Feedbackkanal an, in dem Benutzer und Einzelpersonen Probleme mit dem Dienst nach seiner Bereitstellung melden können. Ein KI-gestütztes Produkt oder Feature erfordert nach der Bereitstellung fortlaufende Überwachung und Verbesserung. Seien Sie darauf vorbereitet, jegliches Feedback und Verbesserungsvorschläge zu implementieren. Richten Sie Kanäle ein, um Fragen und Bedenken von betroffenen Beteiligten zu sammeln. Zu den Personen, die direkt oder indirekt vom System betroffen sein können, zählen Mitarbeiter, Besucher und die allgemeine Öffentlichkeit.

  • Feedback: Suchen Sie während des Entwicklungs- und Bewertungsprozesses Feedback aus verschiedenen Stichproben der Community (z. B. in der Vergangenheit marginalisierte Gruppen, Menschen mit Behinderungen und Servicemitarbeiter). Weitere Informationen finden Sie unter „Community-Jury“.

  • Benutzerstudie: Alle Empfehlungen hinsichtlich Zustimmung oder Bekanntgabe sollten in einer Benutzerstudie festgehalten werden. Bewerten Sie die Erstnutzungs- und fortlaufende Nutzungserfahrung anhand einer repräsentativen Stichprobe der Community, um zu überprüfen, ob die Entwurfsentscheidungen zu einer effektiven Bekanntgabe führen. Führen Sie Benutzerforschung mit 10–20 Communitymitgliedern (betroffenen Stakeholdern) aus, um ihr Verständnis der Informationen zu bewerten und zu ermitteln, ob ihre Erwartungen erfüllt werden.

  • Transparenz und Erläuterung: Erwägen Sie die Aktivierung und Verwendung der Funktion Erklärbarkeit von Rückschlüssen der Personalisierung, um besser zu verstehen, welche Merkmale bei der Entscheidungsfindung der Personalisierung für die einzelnen Rangfolgenaufrufe einen erheblichen Einfluss haben. Diese Funktion ermöglicht es Ihnen, Ihren Benutzern Transparenz darüber zu geben, inwiefern ihre Daten bei der Erstellung der empfohlenen besten Aktion eine Rolle gespielt haben. Beispielsweise können Sie Ihren Benutzern eine Schaltfläche mit der Bezeichnung „Wie kommt es zu diesen Vorschlägen?“ zur Verfügung stellen, über die angezeigt wird, welche Top-Merkmale für die Ergebnisse der Personalisierung eine Rolle gespielt haben. Diese Informationen können außerdem verwendet werden, um besser zu verstehen, welche Datenattribute zu Ihren Benutzern, Kontexten und Aktionen die Wahl der besten Aktion durch die Personalisierung begünstigen, welche kontraproduktiv sind und welche keine oder nur geringe Auswirkungen haben. Diese Funktion kann darüber hinaus Erkenntnisse zu Ihren Benutzersegmenten bieten und Ihnen helfen, potenzielle Verzerrungen zu identifizieren und zu beheben.

  • Feindliche Nutzung: Erwägen Sie, einen Prozess einzurichten, um böswillige Manipulation zu erkennen und entsprechend zu handeln. Es gibt Akteure, die die Fähigkeit von maschinellem Lernen und KI-Systemen zum Lernen aus ihren Umgebungen ausnutzen. Mit koordinierten Angriffen können sie Verhaltensmuster künstlich verfälschen, wodurch sich die Daten und KI-Modelle in ihrem Sinne verschieben. Wenn die Verwendung der Personalisierung Einfluss auf wichtige Entscheidungen haben kann, stellen Sie sicher, dass Sie über geeignete Mittel verfügen, diese Art von Angriff an Ort und Stelle zu erkennen und zu entschärfen.

  • Abmelden: Erwägen Sie, ein Steuerelement für Benutzer bereitzustellen, um den Bezug personalisierter Empfehlungen abzuwählen. Für diese Benutzer wird die Rangfolgen-API der Personalisierung nicht aus Ihrer Anwendung aufgerufen. Stattdessen kann Ihre Anwendung einen alternativen Mechanismus verwenden, um zu entscheiden, welche Maßnahme ergriffen werden soll. Beispielsweise erlebt der Benutzer durch Abwählen der personalisierten Empfehlungen und die Entscheidung für die Standard- oder Basisplanaktion, welche Aktion ohne die Empfehlung der Personalisierung ausgeführt würde. Alternativ kann Ihre Anwendung Empfehlungen auf der Grundlage von aggregierten oder auf der Grundgesamtheit basierenden Maßnahmen verwenden (z. B. jetzt im Trend, 10 beliebteste usw.).

Ihre Verantwortung

Alle Richtlinien für die verantwortungsvolle Implementierung basieren auf der Grundlage, dass Entwickler und Unternehmen, die Personalisierung verwenden, für die Auswirkungen der Verwendung diese Algorithmen in der Gesellschaft verantwortlich und rechenschaftspflichtig sind. Wenn Sie eine Anwendung entwickeln, die von Ihrer Organisation bereitgestellt werden soll, sollten Sie Ihre Rolle und Verantwortung für deren Betrieb anerkennen und wissen, wie sie sich auf Menschen auswirkt. Wenn Sie eine Anwendung für die Bereitstellung durch einen Dritten entwerfen, kommen Sie mit ihm zu einem gemeinsamen Beschluss darüber, wer letztendlich für das Verhalten der Anwendung verantwortlich ist. Achten Sie darauf, diese Übereinkunft zu dokumentieren.

Fragen und Feedback

Microsoft aktualisiert fortlaufend Tools und Dokumente, um Ihnen zu helfen, diesen Verpflichtungen nachzukommen. Unser Team lädt Sie dazu ein, Microsoft Feedback bereitzustellen, wenn Sie glauben, dass weitere Tools, Produktfunktionen und Dokumente Ihnen bei der Implementierung dieser Richtlinien für die Verwendung der Personalisierung helfen würden.

  • Informationen finden Sie in den sechs Prinzipien von Microsoft zur verantwortungsvollen Entwicklung von KI, die im Januar 2018 in dem Buch The Future Computed veröffentlicht wurden.

Nächste Schritte

Erfahren Sie, wie die Personalisierungs-API Features empfängt : Features: Aktion und Kontext