Condividi tramite


Privacy, sicurezza e uso responsabile di Copilot in Fabric

Prima che l'azienda inizi a usare Copilot in Fabric, potrebbero essere presenti domande sul funzionamento, su come mantenere i dati aziendali sicuri e rispettare i requisiti di privacy e su come usare l'intelligenza artificiale generativa in modo responsabile.

Questo articolo fornisce le risposte alle domande più comuni sulla sicurezza e la privacy dei dati aziendali, per aiutare la vostra organizzazione a iniziare a lavorare con Copilot in Fabric. L'articolo Privacy, sicurezza e uso responsabile per Copilot in Power BI (anteprima) offre una panoramica di Copilot in Power BI. Continuare a leggere per dettagli su Copilot per Fabric.

Nota

I dati aziendali sono sicuri

  • Copilot descrive l’uso di Servizio OpenAI di Azure, completamente controllato da Microsoft. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti.
  • Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. Altre informazioni sulle impostazioni di amministrazione per Copilot.
  • Copilot non archivia i dati per il monitoraggio degli abusi. Per migliorare la privacy e l'attendibilità, è stato aggiornato l'approccio al monitoraggio degli abusi: in precedenza sono stati conservati i dati di Copilot in Fabric, contenenti input e output di richiesta, per un massimo di 30 giorni per verificare la presenza di abusi o uso improprio. Dopo il feedback dei clienti, abbiamo eliminato questa conservazione di 30 giorni. Ora, non archiviamo più i dati correlati alle richieste, dimostrando il nostro impegno incrollabile per la privacy e la sicurezza.

Controllare gli output di Copilot prima di usarli

  • Le risposte di Copilot possono includere contenuti non accurati o di bassa qualità, quindi assicurarsi di esaminare gli output prima di usarli nel lavoro.
  • Gli utenti che possono valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto devono esaminare gli output.
  • Oggi, Copilot funziona al meglio in lingua inglese. Altre lingue potrebbero non avere le stesse prestazioni.

Importante

Esaminare le condizioni di anteprima supplementari per Fabric, che include le condizioni per l'utilizzo per le anteprime del servizio di intelligenza artificiale generative di Microsoft.

Come funziona Copilot.

In questo articolo, Copilot si riferisce a una gamma di funzionalità e capacità di intelligenza artificiale generative in Fabric con tecnologia del servizio OpenAI di Azure.

In generale, queste funzionalità sono progettate per generare linguaggio naturale, codice o altro contenuto basato su:

(a) input forniti e,

(b) dati di base a cui la funzionalità ha accesso.

Ad esempio, Power BI, Data Factory e data science offrono chat Copilot in cui è possibile porre domande e ottenere risposte contestualizzate sui dati. Copilot per Power BI può anche creare report e altre visualizzazioni. Copilot per Data Factory è in grado di trasformare i dati e spiegare i passaggi applicati. Data science offre Copilot funzionalità esterne al riquadro della chat, ad esempio comandi magic IPython personalizzati nei notebook. Le chat di Copilot possono essere aggiunte ad altre esperienze in Fabric, insieme ad altre caratteristiche con tecnologia OpenAI di Azure.

Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:

I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle caratteristiche di Copilot in questo scenario.

Le interazioni con Copilot sono specifiche per ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio condividendo un report di Power BI generato o un codice generato. Copilot non usa dati di altri utenti nello stesso tenant o in altri tenant.

Copilot usa OpenAI di Azure, non i servizi OpenAI disponibili pubblicamente, per elaborare tutti i dati, inclusi gli input utente, i dati di terra e gli output Copilot. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Microsoft Azure e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su OpenAI di Azure.

Processo Copilot

Queste funzionalità seguono lo stesso processo generale:

  1. Copilotriceve un prompt da un utente. Questa richiesta potrebbe essere sotto forma di domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica “Crea un report”.
  2. Copilot pre-elabora la richiesta tramite un approccio denominato grounding. A seconda dello scenario, questo potrebbe includere il recupero di dati pertinenti, ad esempio lo schema del set di dati o la cronologia delle chat dalla sessione corrente dell'utente con Copilot. Il grounding migliora la specificità della richiesta, in modo che l'utente ottenga risposte rilevanti e utilizzabili per l'attività specifica. Il recupero dei dati è limitato ai dati accessibili all'utente autenticato in base alle relative autorizzazioni. Per altre informazioni, vedere la sezione Quali dati vengono usati da Copilot e come vengono elaborati? in questo articolo.
  3. Copilot accetta la risposta da OpenAI di Azure e la post-elabora. A seconda dello scenario, questa post-elaborazione include una combinazione di chiamate di grounding aggiuntive a Microsoft Graph, controlli di intelligenza artificiale responsabile, filtri con moderazione del contenuto di Azure e ulteriori vincoli specifici dell'azienda e generazione di comandi.
  4. Copilotrestituisce una risposta all'utente sotto forma di linguaggio naturale, codice o altro contenuto. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe trattarsi di un modulo contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.
  5. L'utente esamina la risposta prima di usarla. Le risposte di Copilot possono includere contenuto impreciso o di bassa qualità, quindi è importante per gli esperti del settore controllare gli output prima di usarli o condividerli.

Proprio come ogni esperienza in Fabric è stata creata per determinati scenari e persone, dai data engineer agli analisti dei dati, ogni funzionalità Copilot di Fabric è stata creata anche con scenari e utenti univoci. Per le funzionalità, gli usi previsti e le limitazioni di ogni funzionalità, vedere la sezione relativa all'esperienza in uso.

Definizioni

Richiesta o input

Testo o azione inviato a Copilot da un utente. Potrebbe trattarsi di una domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica “Crea un report”.

Grounding

Una tecnica di pre-elaborazione in cui Copilot recupera dati aggiuntivi contestuali alla richiesta dell'utente e quindi invia tali dati insieme alla richiesta dell'utente ad Azure OpenAI per generare una risposta più pertinente e praticabile.

Risposta o output

Contenuto restituito da Copilot a un utente. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe essere contenuto contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.

Che dati usa Copilot e come vengono elaborati?

Per generare una risposta, Copilot usa:

  • Richiesta o input dell'utente e, se appropriato,
  • Dati aggiuntivi recuperati tramite il processo di terra.

Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:

  • La richiesta o il comando dell’utente.
  • Dati di base.
  • Risposta o output dell’intelligenza artificiale.

I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle caratteristiche di Copilot in questo scenario.

Le interazioni con Copilot sono specifiche per ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio condividendo un report di Power BI generato o un codice generato. Copilot non usa dati di altri utenti nello stesso tenant o in altri tenant.

Copilot usa Azure OpenAI, non i servizi disponibili pubblicamente di OpenAI, per elaborare tutti i dati, inclusi gli input dell'utente, i dati di base e gli output Copilot. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Azure di Microsoft e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su OpenAI di Azure.

Conformità e residenza dei dati

Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. (Vedere dove è attualmente disponibile OpenAI di Azure).

Per consentire l'elaborazione dei dati altrove, l'amministratore può attivare l'impostazione Dati inviati ad Azure OpenAI all'esterno dell'area geografica, del limite di conformità o dell'istanza cloud nazionale del tenant. Altre informazioni sulle impostazioni di amministrazione per Copilot.

Cosa devo sapere per usare Copilot in modo responsabile?

Microsoft è impegnata a garantire che i suoi sistemi IA siano basati sui suoi principi di IA e rispettino gli Standard di intelligenza artificiale responsabile. Questi principi includono la possibilità per i nostri clienti di usare questi sistemi in modo efficace e in linea con i loro usi previsti. Il nostro approccio all'intelligenza artificiale responsabile è in continua evoluzione per risolvere in modo proattivo i problemi emergenti.

Le funzionalità di Copilot in Fabric sono create per soddisfare lo standard di intelligenza artificiale responsabile, il che significa che vengono esaminate dai team multidisciplinari per individuare potenziali danni e quindi affinate per prevenire tali danni.

Prima di usare Copilot, tenere presenti le limitazioni di Copilot:

  • Poiché le risposte di Copilot possono includere contenuti non accurati o di bassa qualità, è necessario esaminare gli output prima di usarli nel lavoro.
  • Gli utenti in grado di valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto devono esaminare gli output.
  • Attualmente, le caratteristiche di Copilot funzionano meglio nella lingua inglese. Altre lingue potrebbero non avere le stesse prestazioni.

Copilot per carichi di lavoro di Fabric

Privacy, sicurezza e uso responsabile per: