Linee guida per l'integrazione e l'uso responsabile di Personalizza esperienze

Importante

A partire dal 20 settembre 2023 non sarà possibile creare nuove risorse di Personalizza esperienze. Il servizio Personalizza esperienze viene ritirato il 1° ottobre 2026.

Microsoft collabora per aiutare i clienti a sviluppare e distribuire soluzioni in modo responsabile usando Personalizza esperienze di intelligenza artificiale di Azure. Il nostro approccio basato sul principio sostiene l'agenzia personale e la dignità considerando il sistema di IA:

  • Equità, affidabilità e sicurezza.
  • Privacy e tutela.
  • Inclusività.
  • Trasparenza.
  • Responsabilità umana.

Queste considerazioni riflettono il nostro impegno nello sviluppo dell'IA responsabile.

Linee guida generali per l'integrazione e i principi di utilizzo responsabile

Quando si è pronti per l'integrazione e l'uso responsabile di prodotti o funzionalità basati sull'intelligenza artificiale, le attività seguenti consentono di configurare in modo ottimale:

  • Capire cosa può fare. Valutare appieno il potenziale di Personalizza esperienze per comprenderne le funzionalità e le limitazioni. Comprendere come verrà eseguita nello scenario e nel contesto specifico testandolo accuratamente con condizioni e dati reali.

  • Rispettare il diritto di un individuo alla privacy. Raccoglie solo dati e informazioni da persone per scopi legittimi e giustificabili. Usare solo i dati e le informazioni che si hanno il consenso per l'uso a questo scopo.

  • Ottenere una revisione legale. Ottenere consigli legali appropriati per esaminare Personalizza esperienze e come usarlo nella soluzione, in particolare se lo si userà nelle applicazioni sensibili o ad alto rischio. Comprendere quali restrizioni potrebbe essere necessario lavorare all'interno e la responsabilità di risolvere eventuali problemi che potrebbero verificarsi in futuro.

  • Avere un essere umano nel ciclo. Includere la supervisione umana come area di modello coerente da esplorare. Garantire una supervisione umana costante del prodotto o della funzionalità basata sull'intelligenza artificiale. Mantenere il ruolo degli esseri umani nel processo decisionale. Assicurarsi di avere un intervento umano in tempo reale nella soluzione per evitare danni e gestire situazioni in cui il sistema di intelligenza artificiale non esegue come previsto.

  • Creare una relazione di trust con gli stakeholder interessati. Comunicare i vantaggi previsti e i potenziali rischi per gli stakeholder interessati. Aiutare gli utenti a capire perché i dati sono necessari e come l'uso dei dati porterà al loro vantaggio. Descrivere la gestione dei dati in modo comprensibile.

  • Creare un ciclo di feedback dei clienti. Fornire un canale di feedback che consente a utenti e utenti di segnalare problemi con il servizio dopo la distribuzione. Dopo aver distribuito un prodotto o una funzionalità basata su intelligenza artificiale, richiede un monitoraggio e un miglioramento continui. Essere pronti per implementare eventuali commenti e suggerimenti per il miglioramento. Stabilire canali per raccogliere domande e preoccupazioni da parte degli stakeholder interessati. Persone che potrebbero essere direttamente o indirettamente interessati dal sistema includono dipendenti, visitatori e pubblico generale.

  • Feedback: cercare feedback da un campionamento diversificato della community durante il processo di sviluppo e valutazione (ad esempio, gruppi storicamente emarginati, persone con disabilità e lavoratori del servizio). Per altre informazioni, vedere Giuria della community.

  • User Study: qualsiasi raccomandazione di consenso o divulgazione deve essere inserita in uno studio degli utenti. Valutare la prima e l'esperienza di utilizzo continuo con un campione rappresentativo della community per verificare che le scelte di progettazione portino a una divulgazione efficace. Condurre ricerche sugli utenti con 10-20 membri della community (stakeholder interessati) per valutare la comprensione delle informazioni e determinare se vengono soddisfatte le loro aspettative.

  • Trasparenza e spiegazione: valutare la possibilità di abilitare e usare la capacità di spiegazione dell'inferenza di Personalizza esperienze per comprendere meglio quali funzionalità svolgono un ruolo significativo nella scelta decisionale di Personalizza esperienze in ogni chiamata di classificazione. Questa funzionalità consente agli utenti di fornire agli utenti trasparenza in merito al modo in cui i dati hanno svolto un ruolo nella produzione dell'azione consigliata. Ad esempio, è possibile assegnare agli utenti un pulsante con l'etichetta "Perché questi suggerimenti?" che mostra quali funzionalità principali hanno avuto un ruolo nella produzione dei risultati di Personalizza esperienze. Queste informazioni possono essere usate anche per comprendere meglio quali attributi di dati sugli utenti, i contesti e le azioni funzionano a favore della scelta di Personalizza esperienze, che stanno lavorando contro di esso e che potrebbero avere poco o nessun effetto. Questa funzionalità può anche fornire informazioni dettagliate sui segmenti degli utenti e aiutare a identificare e risolvere potenziali distorsioni.

  • Uso antagonista: valutare la possibilità di stabilire un processo per rilevare e agire sulla manipolazione dannosa. Ci sono attori che sfruttano la capacità di machine learning e i sistemi di intelligenza artificiale di imparare dal proprio ambiente. Con gli attacchi coordinati, possono simulare artificialmente modelli di comportamento che spostano i dati e i modelli di intelligenza artificiale verso i loro obiettivi. Se l'uso di Personalizza esperienze potrebbe influire sulle scelte importanti, assicurarsi di avere i mezzi appropriati per rilevare e attenuare questi tipi di attacchi.

  • Rifiutare esplicitamente: valutare la possibilità di fornire agli utenti un controllo per rifiutare esplicitamente di ricevere raccomandazioni personalizzate. Per questi utenti, l'API Di classificazione di Personalizza esperienze non verrà chiamata dall'applicazione. L'applicazione può invece usare un meccanismo alternativo per decidere quale azione viene eseguita. Ad esempio, rifiutando esplicitamente le raccomandazioni personalizzate e scegliendo l'azione predefinita o di base, l'utente potrebbe sperimentare l'azione che verrebbe eseguita senza consigli di Personalizza esperienze. In alternativa, l'applicazione può usare raccomandazioni basate su misure aggregate o basate sulla popolazione (ad esempio, tendenze, primi 10 più popolari e così via).

Responsabilità

Tutte le linee guida per l'implementazione responsabile si basano sul fatto che gli sviluppatori e le aziende che usano Personalizza esperienze sono responsabili e devono rendere conto degli effetti dell'uso di questi algoritmi nella società. Se si sviluppa un'applicazione che verrà distribuita dall'organizzazione, è necessario riconoscere il ruolo e la responsabilità per il proprio funzionamento e come influisce sulle persone. Se si progetta un'applicazione da distribuire da terze parti, è possibile comprendere chi è responsabile del comportamento dell'applicazione. Assicurarsi di documentare tale comprensione.

Domande e commenti

Microsoft sta aggiornando continuamente strumenti e documenti per aiutarti a agire su queste responsabilità. Il nostro team invita l'utente a fornire commenti e suggerimenti a Microsoft se si ritiene che altri strumenti, funzionalità del prodotto e documenti consentano di implementare queste linee guida per l'uso di Personalizza esperienze.

  • Vedere i sei principi di Microsoft per lo sviluppo responsabile dell'IA pubblicato nel libro di gennaio 2018 The Future Computed.

Passaggi successivi

Informazioni su come l'API Personalizza esperienze riceve le funzionalità: Funzionalità: Azione e contesto