Condividi tramite


Domande frequenti sulla sicurezza e la privacy dei dati di Copilot per Dynamics 365 e Power Platform

Copilot per Dynamics 365 e Power Platform presenta seguire un insieme di pratiche fondamentali in materia di sicurezza e privacy e lo Microsoft standard di intelligenza artificiale responsabile. I dati di Dynamics 365 e Power Platform sono protetti da controlli di conformità, sicurezza e privacy completi e leader del settore.

Copilot si basa sul Servizio OpenAI di Microsoft Azure e viene eseguito completamente nel cloud di Azure. Il Servizio OpenAI di Azure offre disponibilità a livello di area e la possibilità di filtrare il contenuto basato sull'intelligenza artificiale responsabile. Copilot utilizza i modelli OpenAI con tutte le funzionalità di sicurezza di Microsoft Azure. OpenAI è un'organizzazione indipendente. Non condividiamo i tuoi dati con OpenAI.

Le funzionalità di Copilot non sono disponibili in tutte le aree geografiche e in tutte le lingue di Azure. A seconda di dove è ospitato il tuo ambiente, potrebbe essere necessario consentire lo spostamento dei dati tra aree geografiche per utilizzarli. Per altre informazioni, consulta gli articoli elencati in Spostamento di dati tra aree geografiche.

Che cosa succede ai dati quando si usa Copilot?

Hai tu il controllo dei tuoi dati. Microsoft non Condividi i tuoi dati a terze parti a meno che tu non abbia concesso l'autorizzazione a farlo. Inoltre, non usiamo i dati dei tuoi clienti per eseguire il training di Copilot o delle sue funzionalità di intelligenza artificiale, a meno che tu non abbia dato il tuo consenso in tal senso. Copilot aderisce alle autorizzazioni e ai criteri sui dati esistenti e le risposte che fornisce si basano solo sui dati a cui puoi accedere personalmente. Per altre informazioni su come controllare i tuoi dati e su come vengono trattati, vedi gli articoli elencati nella sezione Copilot nelle app Dynamics 365 e in Power Platform.

Copilot monitora eventuali usi impropri o dannosi del servizio con l'elaborazione transitoria. Non archiviamo né conduciamo un controllo visivo degli input e degli output di Copilot per scopi di monitoraggio di eventuali usi impropri.

In che modo Copilot usa i dati?

Ogni servizio o funzionalità usa Copilot in base ai dati che fornisci o che configuri per l'elaborazione in Copilot.

Le tue richieste (input) e le risposte di Copilot (output o risultati):

Scopri di più sulla privacy e la sicurezza dei dati del servizio Azure OpenAI . Per saperne di più su come Microsoft proteggiamo e utilizziamo i tuoi dati in generale, leggi la nostra Informativa sulla privacy.

Dove vanno i miei dati?

Microsoft si basa sulla fiducia. Ci impegniamo a garantire la sicurezza, la privacy e la conformità in tutto ciò che facciamo e il nostro approccio all'intelligenza artificiale non è diverso. I dati dei clienti, inclusi gli input e gli output di Copilot, vengono archiviati nel trust cloud limite. Microsoft

In alcuni scenari, come le funzionalità basate su Bing e i plug-in Copilot di terze parti, i dati dei clienti potrebbero essere trasmessi al di fuori del Microsoft Cloud trust limite.

Copilot può accedere ai contenuti crittografati?

I dati vengono forniti a Copilot in base al livello di accesso dell'utente corrente. Se un utente ha accesso a dati crittografati in Dynamics 365 e Power Platform e li fornisce a Copilot, Copilot vi potrà accedere.

In che modo Copilot protegge i dati dei clienti?

Microsoft è in una posizione unica per fornire un'intelligenza artificiale pronta per le aziende. Copilot si basa sul Servizio OpenAI di Azure ed è conforme ai nostri impegni verso i nostri clienti in termini di privacy, sicurezza e normative.

  • Basato sull'approccio globale di Microsoft alla sicurezza, alla privacy e alla conformità. Copilot è integrato in servizi come Dynamics 365 e Dynamics 365 e ne eredita i criteri e i processi di sicurezza, privacy e conformità, come l'autenticazione a più fattori e i limiti di conformità. Microsoft Power Platform

  • Molteplici forme di protezione per salvaguardare i dati dell'organizzazione. Le tecnologie lato servizio crittografano i contenuti inattivi e in transito dell'organizzazione a favore di una sicurezza solida. Le connessioni sono protette tramite Transport layer Security (TLS) e i trasferimenti di dati tra Dynamics 365, Power Platform e Azure OpenAI avvengono sulla rete backbone, garantendo affidabilità e sicurezza. Microsoft Scopri di più sulla crittografia nel Microsoft Cloud.

  • Un'architettura progettata per proteggere i tuoi dati sia a livello di tenant sia a livello di ambiente. Siamo consapevoli del fatto che la perdita di dati è un grosso problema per i clienti. Microsoft I modelli di intelligenza artificiale non vengono addestrati e non apprendono dai dati del tuo tenant o dai tuoi prompt, a meno che l'amministratore del tuo tenant non abbia acconsentito a condividere i dati con noi. Nei tuoi ambienti, puoi controllare l'accesso tramite le autorizzazioni che imposti. I meccanismi di autenticazione e autorizzazione separano le richieste nel modello condiviso tra i tenant. Copilot utilizza dati a cui solo tu puoi accedere, usando la stessa tecnologia che utilizziamo da anni per proteggere i dati dei clienti.

Le risposte di Copilot sono sempre basate sui fatti?

Come accade con qualsiasi intelligenza artificiale generativa, le risposte del copilota non sono basate sui fatti al 100%. Il nostro lavoro di miglioramento delle risposte continua, ma nel frattempo è consigliabile che tu mantenga un giudizio critico quando esamini l'output prima di inviarlo ad altri. Copilot offre bozze e riepiloghi utili per aiutarti ad aumentare la tua produttività, ma è completamente automatico. Hai sempre l'opportunità di rivedere il contenuto generato dall'intelligenza artificiale.

I nostri team stanno lavorando per risolvere in modo proattivo problemi come la cattiva informazione e la disinformazione, il blocco dei contenuti, la sicurezza dei dati e la promozione di contenuti dannosi o discriminatori, secondo i nostri principi di intelligenza artificiale responsabile.

Offriamo anche indicazioni all'interno dell'esperienza utente per rafforzare l'uso responsabile del contenuto e delle azioni generati dall'intelligenza artificiale.

  • Istruzioni e richieste. Quando usi Copilot, le richieste e altri elementi informativi ti ricordano di rivedere e modificare le risposte secondo necessità e di verificare manualmente l'accuratezza dei fatti, dei dati e del testo prima di utilizzare il contenuto generato dall'intelligenza artificiale.

  • Fonti citate. Ove applicabile, Copilot cita le sue fonti di informazione, pubbliche o interne, in modo che tu possa esaminarle di persona per verificare le sue risposte.

Per altre informazioni, vedi le Domande frequenti sull'intelligenza artificiale responsabile per il tuo prodotto su Microsoft Learn.

In che modo Copilot blocca i contenuti dannosi?

Il Servizio OpenAI di Azure include un sistema di filtraggio dei contenuti che opera insieme ai modelli di base. I modelli di filtro dei contenuti per le categorie Odio ed equità, Sesso, Violenza e Autolesionismo sono stati appositamente sottoposti a training e testati in varie lingue. Questo sistema funziona eseguendo sia la richiesta di input sia la risposta attraverso modelli di classificazione progettati per identificare e bloccare l'output di contenuti dannosi.

I danni correlati all'odio e all'equità si riferiscono a qualsiasi contenuto che utilizza un linguaggio peggiorativo o discriminatorio basato su attributi quali razza, etnia, nazionalità, identità ed espressione di genere, orientamento sessuale, religione, stato di immigrazione, stato di abilità, aspetto personale e corporatura. Per equità si intende la garanzia che i sistemi di intelligenza artificiale trattino equamente tutti i gruppi di persone senza contribuire alle disuguaglianze sociali esistenti. I contenuti di natura sessuale includono discussioni sugli organi riproduttivi umani, relazioni sentimentali, atti rappresentati in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli descritti come aggressione o atto forzato di violenza sessuale, prostituzione, pornografia e abuso. La violenza descrive il linguaggio correlato ad azioni fisiche intese a ferire o uccidere, comprese azioni, armi ed entità correlate. Il linguaggio di autolesionismo si riferisce ad azioni deliberate intese a ferire o uccidere se stessi.

Scopri di più sul OpenAI filtraggio dei contenuti di Azure.

Copilot blocca il prompt injection (attacchi jailbreak)?

Gli attacchi jailbreak sono richieste all'utente concepite per indurre il modello di intelligenza artificiale generativa a comportarsi in modi per i quali è stato addestrato a non farlo o a infrangere le regole che gli sono state imposte seguire. La protezione dal prompt injection nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Scopri di più sugli attacchi jailbreak e su come utilizzare Azure AI Content Safety per rilevarli.

Copilot blocca il prompt injection indiretto (attacchi jailbreak indiretti)?

Gli attacchi indiretti, definiti anche attacchi tempestivi indiretti o attacchi prompt injection tra domini, rappresentano una potenziale vulnerabilità data da terze parti che inseriscono istruzioni dannose all'interno di documenti a cui il sistema di IA generativa può accedere e che può elaborare. La protezione dal prompt injection indiretto nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Scopri di più sugli attacchi indiretti e su come utilizzare Azure AI Content Safety per rilevarli.

Come vengono testati e convalidati i sistemi di qualità Copilot, inclusa la protezione da iniezione rapida e le risposte a terra? Microsoft

Ogni nuova iterazione del prodotto e del modello linguistico di Copilot deve superare una revisione interna dell'intelligenza artificiale responsabile prima di poter essere lanciata. Prima del rilascio, utilizziamo un processo chiamato "red teaming" (in cui un team simula un attacco nemico, trovando e sfruttando i punti deboli per aiutare l'organizzazione a migliorare le proprie difese) per valutare i potenziali rischi in contenuti dannosi, scenari di jailbreak e risposte fondate. Dopo il rilascio, utilizziamo test automatizzati e strumenti di valutazione manuali e automatici per valutare la qualità delle risposte di Copilot.

In che modo si migliora il modello di base e si misurano i miglioramenti nelle risposte concrete? Microsoft

Nel contesto dell'intelligenza artificiale, in particolare dell'intelligenza artificiale che si occupa di modelli linguistici come quella su cui si basa Copilot, il grounding aiuta l'intelligenza artificiale a generare risposte che risultano più pertinenti e sensate nel mondo reale. Il grounding aiuta a garantire che le risposte dell'IA siano basate su informazioni affidabili e siano il più accurate e pertinenti possibile. Le metriche della risposta fondata valutano l'accuratezza con cui i fatti dichiarati nel contenuto di base fornito al modello sono rappresentati nella risposta finale.

I modelli di fondazione come GPT-4 sono migliorati dalle tecniche RAG (Retrieval Augmented Generation). Queste tecniche consentono ai modelli di utilizzare più informazioni di quelle su cui si è basato il loro training per comprendere lo scenario di un utente. La tecnica RAG funziona identificando innanzitutto i dati pertinenti allo scenario, in modo simile a come un motore di ricerca identifica le pagine Web pertinenti per i termini di ricerca dell'utente. Utilizza più approcci per identificare quale contenuto è pertinente alla richiesta dell'utente e dovrebbe essere utilizzato per fondare la risposta. Gli approcci includono la ricerca in diversi tipi di indici, come gli indici invertiti, che utilizzano tecniche di recupero delle informazioni come la corrispondenza dei termini, o gli indici vettoriali, che utilizzano confronti di distanze vettoriali per la somiglianza semantica. Dopo aver identificato i documenti rilevanti, la RAG trasmette i dati al modello insieme alla conversazione corrente, fornendo al modello più contesto per comprendere meglio le informazioni di cui già dispone e generare una risposta fondata nel mondo reale. Infine, la RAG controlla la risposta per assicurarsi che sia supportata dal contenuto di origine fornito al modello. Le funzionalità di intelligenza artificiale generativa di Copilot incorporano la tecnica RAG in diversi modi. Un esempio è la chat con l'utilizzo dei dati, dove un chatbot è basato sulle origini dati del cliente.

Un altro modo per migliorare i modelli di base è noto con il termine di fine-tuning, ovvero perfezionamento. Un ampio set di dati di coppie domanda-risposta viene mostrato a un modello di base per potenziarne il training originale con nuovi campioni mirati a uno scenario specifico. Il modello può quindi essere distribuito come modello separato, perfezionato per quello scenario. Mentre il grounding consiste nel rendere la conoscenza dell'IA pertinente al mondo reale, il fine-tuning consiste nel rendere la conoscenza dell'IA più specifica per un particolare compito o dominio. Microsoft utilizza la messa a punto fine in vari modi. Ad esempio, utilizziamo la creazione del flusso di Power Automate da descrizioni del linguaggio naturale fornite dall'utente.

Copilot soddisfa i requisiti di conformità normativa?

Microsoft Copilot fa parte dell'ecosistema Dynamics 365 e Power Platform e soddisfa gli stessi requisiti di conformità normativa. Per maggiori informazioni sulle certificazioni normative dei Microsoft servizi, visitare il Service Trust Portal. Copilot rispetta inoltre il nostro impegno per un'intelligenza artificiale responsabile, che trovi descritto nel nostro Standard sull'intelligenza artificiale responsabile. Con l'evoluzione della regolamentazione dell'intelligenza artificiale, Microsoft l'intelligenza artificiale continua ad adattarsi e a rispondere ai nuovi requisiti.

Scopri di più sulla disponibilità di Dynamics 365, Power Platform e Copilot, sulle posizioni dei dati dei clienti e sulla conformità ai requisiti globali, regionali e specifici del settore per la gestione dei dati.

Altre informazioni

Copilot nelle app Dynamics 365 e in Power Platform

Prodotto Funzionalità di Ambienti gestiti obbligatorio? Come disattivare la funzionalità
AI Builder Scenari in anteprima No Scenari in anteprima
Copilot Studio Conoscenza generale dell'intelligenza artificiale No Copilot Studio sicurezza e governance
Copilot Studio Crea e modifica argomenti con Copilot No Copilot Studio sicurezza e governance
Copilot Studio Azioni generative No Copilot Studio sicurezza e governance
Copilot Studio Risposte generative No Copilot Studio sicurezza e governance
Dynamics 365 Business Central Tutti (vedi l'elenco completo su aka.ms/bcAI.) No Attiva le funzionalità
Dynamics 365 Customer Insights - Data Crea segmenti con Copilot per Customer Insights - Data (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Panoramica del report di preparazione dei dati (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Ottieni risposte alle domande sulle funzionalità di Copilot (anteprima) No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Dialoga con i dati utilizzando Copilot in Customer Insights No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Data Visualizza la configurazione del sistema No Customer Insights - Data ha un proprio flag per tutte le funzionalità di Copilot da Azure OpenAI.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot ti aiuta a imparare e fare di più (recensione) No La disponibilità di questo copilota nel tuo ambiente è determinata dalle impostazioni dell'amministratore di Power Platform. Scopri come aggiungere Copilot per le app basate su modello.


Questa funzionalità è "app copilot in Customer Insights - Journeys" ed è per questo che è abilitata in Power Platform interfaccia di amministrazione. Altre informazioni: Domande frequenti sull'intelligenza artificiale responsabile
Dynamics 365 Customer Insights - Journeys Crea percorsi utilizzando l'assistenza dell'intelligenza artificiale No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Rinfresca e perfeziona il tuo messaggio No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys stile le tue email con temi assistiti dall'intelligenza artificiale No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Raggiungi i clienti giusti utilizzando l'assistenza alle query

No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizzare l'intelligenza artificiale per dare il via alla creazione di e-mail No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utilizza immagini nei tuoi contenuti No Customer Insights - Journeys ha i propri flag per le funzionalità di Copilot.

Altre informazioni: Fornire il consenso all'utilizzo di Copilot in Customer Insights - Journeys
Dynamics 365 Customer Service Scrivi un'e-mail No Gestisci le funzionalità di Copilot in servizio clienti
Dynamics 365 Customer Service Crea una bozza di chat risposta No Gestisci le funzionalità di Copilot in servizio clienti
Dynamics 365 Customer Service Rispondere alle domande No Gestisci le funzionalità di Copilot in servizio clienti
Dynamics 365 Customer Service Riassumere un caso e una conversazione No Gestisci le funzionalità di Copilot in servizio clienti
Power Apps Costruisci app attraverso la conversazione No Gestisci le impostazioni delle funzionalità
Power Apps Assistenza del copilota per la compilazione di moduli in app basate su modelli No Gestisci le impostazioni delle funzionalità
Power Apps Scrivi una bozza di testo ben scritto, inseriscilo con Copilot No, licenza utente premium Scrivi una bozza di testo ben scritto, inseriscilo con Copilot
Power Apps Excel in tabella No Gestisci le impostazioni delle funzionalità
Power Apps Utilizzare il linguaggio naturale per modificare un'app tramite il pannello Copilot No Gestisci le impostazioni delle funzionalità
Power Automate Copilot nei flussi cloud nella home page e nella finestra di progettazione (per i dettagli, vedi Introduzione a Copilot nei flussi cloud) No Contattare il supporto per eseguire uno script di PowerShell.
Power Pages Tutte (per i dettagli, vedi Panoramica di Copilot in Power Pages) No Disattivare il Copilota in Power Pages

Per ulteriori informazioni, consulta le FAQ sulla condivisione facoltativa dei dati per le funzionalità di Copilot AI in Dynamics 365 Power Platform.

Disponibilità a livello di area/lingua

Disponibilità internazionale di Copilot

Spostamento di dati tra aree geografiche

Sicurezza a Microsoft

Privacy a Microsoft

Microsoft Informativa sulla privacy

Intelligenza artificiale responsabile