Domande frequenti sulla sicurezza e la privacy dei dati di Copilot per Dynamics 365 e Power Platform
Copilot per Dynamics 365 e Power Platform presenta seguire un insieme di pratiche fondamentali in materia di sicurezza e privacy e lo Microsoft standard di intelligenza artificiale responsabile. I dati di Dynamics 365 e Power Platform sono protetti da controlli di conformità, sicurezza e privacy completi e leader del settore.
Copilot si basa sul Servizio OpenAI di Microsoft Azure e viene eseguito completamente nel cloud di Azure. Il Servizio OpenAI di Azure offre disponibilità a livello di area e la possibilità di filtrare il contenuto basato sull'intelligenza artificiale responsabile. Copilot utilizza i modelli OpenAI con tutte le funzionalità di sicurezza di Microsoft Azure. OpenAI è un'organizzazione indipendente. Non condividiamo i tuoi dati con OpenAI.
Le funzionalità di Copilot non sono disponibili in tutte le aree geografiche e in tutte le lingue di Azure. A seconda di dove è ospitato il tuo ambiente, potrebbe essere necessario consentire lo spostamento dei dati tra aree geografiche per utilizzarli. Per altre informazioni, consulta gli articoli elencati in Spostamento di dati tra aree geografiche.
Che cosa succede ai dati quando si usa Copilot?
Hai tu il controllo dei tuoi dati. Microsoft non Condividi i tuoi dati a terze parti a meno che tu non abbia concesso l'autorizzazione a farlo. Inoltre, non usiamo i dati dei tuoi clienti per eseguire il training di Copilot o delle sue funzionalità di intelligenza artificiale, a meno che tu non abbia dato il tuo consenso in tal senso. Copilot aderisce alle autorizzazioni e ai criteri sui dati esistenti e le risposte che fornisce si basano solo sui dati a cui puoi accedere personalmente. Per altre informazioni su come controllare i tuoi dati e su come vengono trattati, vedi gli articoli elencati nella sezione Copilot nelle app Dynamics 365 e in Power Platform.
Copilot monitora eventuali usi impropri o dannosi del servizio con l'elaborazione transitoria. Non archiviamo né conduciamo un controllo visivo degli input e degli output di Copilot per scopi di monitoraggio di eventuali usi impropri.
In che modo Copilot usa i dati?
Ogni servizio o funzionalità usa Copilot in base ai dati che fornisci o che configuri per l'elaborazione in Copilot.
Le tue richieste (input) e le risposte di Copilot (output o risultati):
NON sono disponibili ad altri clienti.
NON vengono usati per eseguire il training o migliorare prodotti o servizi di terze parti (ad esempio i modelli OpenAI).
NON vengono utilizzati per addestrare o migliorare i modelli di intelligenza artificiale, a meno che l'amministratore del tenant non accetti di condividere i dati con noi. Microsoft Per ulteriori informazioni, consulta le FAQ sulla condivisione facoltativa dei dati per le funzionalità di Copilot AI in Dynamics 365 Power Platform.
Scopri di più sulla privacy e la sicurezza dei dati del servizio Azure OpenAI . Per saperne di più su come Microsoft proteggiamo e utilizziamo i tuoi dati in generale, leggi la nostra Informativa sulla privacy.
Dove vanno i miei dati?
Microsoft si basa sulla fiducia. Ci impegniamo a garantire la sicurezza, la privacy e la conformità in tutto ciò che facciamo e il nostro approccio all'intelligenza artificiale non è diverso. I dati dei clienti, inclusi gli input e gli output di Copilot, vengono archiviati nel trust cloud limite. Microsoft
In alcuni scenari, come le funzionalità basate su Bing e i plug-in Copilot di terze parti, i dati dei clienti potrebbero essere trasmessi al di fuori del Microsoft Cloud trust limite.
Copilot può accedere ai contenuti crittografati?
I dati vengono forniti a Copilot in base al livello di accesso dell'utente corrente. Se un utente ha accesso a dati crittografati in Dynamics 365 e Power Platform e li fornisce a Copilot, Copilot vi potrà accedere.
In che modo Copilot protegge i dati dei clienti?
Microsoft è in una posizione unica per fornire un'intelligenza artificiale pronta per le aziende. Copilot si basa sul Servizio OpenAI di Azure ed è conforme ai nostri impegni verso i nostri clienti in termini di privacy, sicurezza e normative.
Basato sull'approccio globale di Microsoft alla sicurezza, alla privacy e alla conformità. Copilot è integrato in servizi come Dynamics 365 e Dynamics 365 e ne eredita i criteri e i processi di sicurezza, privacy e conformità, come l'autenticazione a più fattori e i limiti di conformità. Microsoft Power Platform
Molteplici forme di protezione per salvaguardare i dati dell'organizzazione. Le tecnologie lato servizio crittografano i contenuti inattivi e in transito dell'organizzazione a favore di una sicurezza solida. Le connessioni sono protette tramite Transport layer Security (TLS) e i trasferimenti di dati tra Dynamics 365, Power Platform e Azure OpenAI avvengono sulla rete backbone, garantendo affidabilità e sicurezza. Microsoft Scopri di più sulla crittografia nel Microsoft Cloud.
Un'architettura progettata per proteggere i tuoi dati sia a livello di tenant sia a livello di ambiente. Siamo consapevoli del fatto che la perdita di dati è un grosso problema per i clienti. Microsoft I modelli di intelligenza artificiale non vengono addestrati e non apprendono dai dati del tuo tenant o dai tuoi prompt, a meno che l'amministratore del tuo tenant non abbia acconsentito a condividere i dati con noi. Nei tuoi ambienti, puoi controllare l'accesso tramite le autorizzazioni che imposti. I meccanismi di autenticazione e autorizzazione separano le richieste nel modello condiviso tra i tenant. Copilot utilizza dati a cui solo tu puoi accedere, usando la stessa tecnologia che utilizziamo da anni per proteggere i dati dei clienti.
Le risposte di Copilot sono sempre basate sui fatti?
Come accade con qualsiasi intelligenza artificiale generativa, le risposte del copilota non sono basate sui fatti al 100%. Il nostro lavoro di miglioramento delle risposte continua, ma nel frattempo è consigliabile che tu mantenga un giudizio critico quando esamini l'output prima di inviarlo ad altri. Copilot offre bozze e riepiloghi utili per aiutarti ad aumentare la tua produttività, ma è completamente automatico. Hai sempre l'opportunità di rivedere il contenuto generato dall'intelligenza artificiale.
I nostri team stanno lavorando per risolvere in modo proattivo problemi come la cattiva informazione e la disinformazione, il blocco dei contenuti, la sicurezza dei dati e la promozione di contenuti dannosi o discriminatori, secondo i nostri principi di intelligenza artificiale responsabile.
Offriamo anche indicazioni all'interno dell'esperienza utente per rafforzare l'uso responsabile del contenuto e delle azioni generati dall'intelligenza artificiale.
Istruzioni e richieste. Quando usi Copilot, le richieste e altri elementi informativi ti ricordano di rivedere e modificare le risposte secondo necessità e di verificare manualmente l'accuratezza dei fatti, dei dati e del testo prima di utilizzare il contenuto generato dall'intelligenza artificiale.
Fonti citate. Ove applicabile, Copilot cita le sue fonti di informazione, pubbliche o interne, in modo che tu possa esaminarle di persona per verificare le sue risposte.
Per altre informazioni, vedi le Domande frequenti sull'intelligenza artificiale responsabile per il tuo prodotto su Microsoft Learn.
In che modo Copilot blocca i contenuti dannosi?
Il Servizio OpenAI di Azure include un sistema di filtraggio dei contenuti che opera insieme ai modelli di base. I modelli di filtro dei contenuti per le categorie Odio ed equità, Sesso, Violenza e Autolesionismo sono stati appositamente sottoposti a training e testati in varie lingue. Questo sistema funziona eseguendo sia la richiesta di input sia la risposta attraverso modelli di classificazione progettati per identificare e bloccare l'output di contenuti dannosi.
I danni correlati all'odio e all'equità si riferiscono a qualsiasi contenuto che utilizza un linguaggio peggiorativo o discriminatorio basato su attributi quali razza, etnia, nazionalità, identità ed espressione di genere, orientamento sessuale, religione, stato di immigrazione, stato di abilità, aspetto personale e corporatura. Per equità si intende la garanzia che i sistemi di intelligenza artificiale trattino equamente tutti i gruppi di persone senza contribuire alle disuguaglianze sociali esistenti. I contenuti di natura sessuale includono discussioni sugli organi riproduttivi umani, relazioni sentimentali, atti rappresentati in termini erotici o affettuosi, gravidanza, atti sessuali fisici, compresi quelli descritti come aggressione o atto forzato di violenza sessuale, prostituzione, pornografia e abuso. La violenza descrive il linguaggio correlato ad azioni fisiche intese a ferire o uccidere, comprese azioni, armi ed entità correlate. Il linguaggio di autolesionismo si riferisce ad azioni deliberate intese a ferire o uccidere se stessi.
Scopri di più sul OpenAI filtraggio dei contenuti di Azure.
Copilot blocca il prompt injection (attacchi jailbreak)?
Gli attacchi jailbreak sono richieste all'utente concepite per indurre il modello di intelligenza artificiale generativa a comportarsi in modi per i quali è stato addestrato a non farlo o a infrangere le regole che gli sono state imposte seguire. La protezione dal prompt injection nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Scopri di più sugli attacchi jailbreak e su come utilizzare Azure AI Content Safety per rilevarli.
Copilot blocca il prompt injection indiretto (attacchi jailbreak indiretti)?
Gli attacchi indiretti, definiti anche attacchi tempestivi indiretti o attacchi prompt injection tra domini, rappresentano una potenziale vulnerabilità data da terze parti che inseriscono istruzioni dannose all'interno di documenti a cui il sistema di IA generativa può accedere e che può elaborare. La protezione dal prompt injection indiretto nei servizi di Dynamics 365 e Power Platform deve essere implementata obbligatoriamente. Scopri di più sugli attacchi indiretti e su come utilizzare Azure AI Content Safety per rilevarli.
Come vengono testati e convalidati i sistemi di qualità Copilot, inclusa la protezione da iniezione rapida e le risposte a terra? Microsoft
Ogni nuova iterazione del prodotto e del modello linguistico di Copilot deve superare una revisione interna dell'intelligenza artificiale responsabile prima di poter essere lanciata. Prima del rilascio, utilizziamo un processo chiamato "red teaming" (in cui un team simula un attacco nemico, trovando e sfruttando i punti deboli per aiutare l'organizzazione a migliorare le proprie difese) per valutare i potenziali rischi in contenuti dannosi, scenari di jailbreak e risposte fondate. Dopo il rilascio, utilizziamo test automatizzati e strumenti di valutazione manuali e automatici per valutare la qualità delle risposte di Copilot.
In che modo si migliora il modello di base e si misurano i miglioramenti nelle risposte concrete? Microsoft
Nel contesto dell'intelligenza artificiale, in particolare dell'intelligenza artificiale che si occupa di modelli linguistici come quella su cui si basa Copilot, il grounding aiuta l'intelligenza artificiale a generare risposte che risultano più pertinenti e sensate nel mondo reale. Il grounding aiuta a garantire che le risposte dell'IA siano basate su informazioni affidabili e siano il più accurate e pertinenti possibile. Le metriche della risposta fondata valutano l'accuratezza con cui i fatti dichiarati nel contenuto di base fornito al modello sono rappresentati nella risposta finale.
I modelli di fondazione come GPT-4 sono migliorati dalle tecniche RAG (Retrieval Augmented Generation). Queste tecniche consentono ai modelli di utilizzare più informazioni di quelle su cui si è basato il loro training per comprendere lo scenario di un utente. La tecnica RAG funziona identificando innanzitutto i dati pertinenti allo scenario, in modo simile a come un motore di ricerca identifica le pagine Web pertinenti per i termini di ricerca dell'utente. Utilizza più approcci per identificare quale contenuto è pertinente alla richiesta dell'utente e dovrebbe essere utilizzato per fondare la risposta. Gli approcci includono la ricerca in diversi tipi di indici, come gli indici invertiti, che utilizzano tecniche di recupero delle informazioni come la corrispondenza dei termini, o gli indici vettoriali, che utilizzano confronti di distanze vettoriali per la somiglianza semantica. Dopo aver identificato i documenti rilevanti, la RAG trasmette i dati al modello insieme alla conversazione corrente, fornendo al modello più contesto per comprendere meglio le informazioni di cui già dispone e generare una risposta fondata nel mondo reale. Infine, la RAG controlla la risposta per assicurarsi che sia supportata dal contenuto di origine fornito al modello. Le funzionalità di intelligenza artificiale generativa di Copilot incorporano la tecnica RAG in diversi modi. Un esempio è la chat con l'utilizzo dei dati, dove un chatbot è basato sulle origini dati del cliente.
Un altro modo per migliorare i modelli di base è noto con il termine di fine-tuning, ovvero perfezionamento. Un ampio set di dati di coppie domanda-risposta viene mostrato a un modello di base per potenziarne il training originale con nuovi campioni mirati a uno scenario specifico. Il modello può quindi essere distribuito come modello separato, perfezionato per quello scenario. Mentre il grounding consiste nel rendere la conoscenza dell'IA pertinente al mondo reale, il fine-tuning consiste nel rendere la conoscenza dell'IA più specifica per un particolare compito o dominio. Microsoft utilizza la messa a punto fine in vari modi. Ad esempio, utilizziamo la creazione del flusso di Power Automate da descrizioni del linguaggio naturale fornite dall'utente.
Copilot soddisfa i requisiti di conformità normativa?
Microsoft Copilot fa parte dell'ecosistema Dynamics 365 e Power Platform e soddisfa gli stessi requisiti di conformità normativa. Per maggiori informazioni sulle certificazioni normative dei Microsoft servizi, visitare il Service Trust Portal. Copilot rispetta inoltre il nostro impegno per un'intelligenza artificiale responsabile, che trovi descritto nel nostro Standard sull'intelligenza artificiale responsabile. Con l'evoluzione della regolamentazione dell'intelligenza artificiale, Microsoft l'intelligenza artificiale continua ad adattarsi e a rispondere ai nuovi requisiti.
Altre informazioni
Copilot nelle app Dynamics 365 e in Power Platform
Per ulteriori informazioni, consulta le FAQ sulla condivisione facoltativa dei dati per le funzionalità di Copilot AI in Dynamics 365 Power Platform.
Disponibilità a livello di area/lingua
Disponibilità internazionale di Copilot
Spostamento di dati tra aree geografiche
- Come funziona lo spostamento dei dati tra regioni
- Configurare lo spostamento dei dati tra posizioni geografiche per le funzionalità di intelligenza artificiale generativa al di fuori degli Stati Uniti
- Spostamento dei dati di Copilot tra aree geografiche in Dynamics 365 Sales
- Spostamento dei dati del copilota tra le aree geografiche Dynamics 365 Business Central
Sicurezza a Microsoft
- Introduzione alla sicurezza di Azure
- Crittografia in Microsoft Nuvola
- Dati, privacy e sicurezza per Azure OpenAI Servizio – Servizi di intelligenza artificiale di Azure
Privacy a Microsoft
Microsoft Informativa sulla privacy
Intelligenza artificiale responsabile
- Microsoft Standard di intelligenza artificiale responsabile
- Domande frequenti sull'intelligenza artificiale responsabile per Microsoft Power Platform
- Domande frequenti sull'intelligenza artificiale responsabile per Dynamics 365
- Domande frequenti sull'intelligenza artificiale responsabile per Microsoft Copilot Studio