Risolvere i problemi di Azure Collegamento a Synapse per il pool SQL serverless di Azure Synapse Analytics
Si applica a: Azure Synapse Analytics
Questo articolo offre soluzioni per i problemi comuni riscontrati in Azure Collegamento a Synapse per il pool SQL serverless di Azure Synapse Analytics.
Azure Synapse Link for Dataverse
Deprecazione del servizio di esportazione dati (DES)
Informazioni su come eseguire la transizione dal servizio di esportazione dati a Collegamento ad Azure Synapse per Dataverse con gli articoli seguenti:
- Playbook per la deprecazione di DES
- Servizi di esportazione dati (DES) - Nota di deprecazione
- Dal servizio di esportazione dati a Collegamento ad Azure Synapse per Dataverse
Dati near real-time e dati snapshot di sola lettura
Dopo aver creato un Collegamento a Synapse di Azure per Dataverse, saranno disponibili due versioni dei dati della tabella che verranno sincronizzati in Azure Synapse Analytics e/o Azure Data Lake Storage Gen2:
Tipo di tabella. | Descrizione |
---|---|
Dati near real-time | Fornisce una copia dei dati sincronizzati da Dataverse usando Azure Collegamento a Synapse in modo efficiente rilevando quali dati sono stati modificati dopo l'estrazione iniziale o l'ultima sincronizzazione. |
Dati snapshot | Fornisce una copia di sola lettura dei dati quasi in tempo reale aggiornati a intervalli regolari (in questo caso, ogni ora). |
Per altre informazioni, vedere Accedere ai dati near real-time e ai dati snapshot di sola lettura.
Aggiornamenti incrementali (anteprima)
Quando si crea un Collegamento ad Azure Synapse per Dataverse con l'area di lavoro di Azure Synapse, è possibile abilitare la funzionalità di aggiornamento incrementale per creare una serie di cartelle con timestamp contenenti solo le modifiche ai dati di Dataverse che si sono verificate durante l'intervallo di tempo specificato dall'utente.
Per altre informazioni, vedere Analizzare ed eseguire query sugli aggiornamenti incrementali (anteprima).
Collegamento ad Azure Synapse per Azure Cosmos DB
Accesso ai dati di Azure Cosmos DB
È possibile eseguire query sui dati di Azure Cosmos DB nell'archivio analitico usando i pool di Spark e i pool di SQL serverless. Risolvere i problemi comuni seguendo la procedura descritta in questi articoli:
Non è possibile eseguire query nel contenitore di Azure Cosmos DB
Assicurarsi di aver configurato correttamente il collegamento ad Azure Synapse e l'archivio analitico nell'account Azure Cosmos DB.
Informazioni sulla rappresentazione dello schema
Nell'archivio analitico esistono due modalità di rappresentazione dello schema. Queste modalità presentano compromessi tra la semplicità di una rappresentazione a colonne, la gestione degli schemi polimorfici e la semplicità d'uso delle query:
- Rappresentazione ben definita dello schema (impostazione predefinita per l'API SQL di Azure Cosmos DB)
- Rappresentazione completa dello schema di fedeltà (impostazione predefinita per l'API di Azure Cosmos DB per MongoDB)
Informazioni su come gestire automaticamente gli schemi dell'archivio analitico.
Proprietà (colonne) mancanti nel risultato della query
Se mancano colonne presenti nei contenitori di Azure Cosmos DB, è probabile che i vincoli dello schema siano stati violati. I vincoli seguenti sono applicabili ai dati operativi in Azure Cosmos DB quando si abilita l'archivio analitico per dedurre e rappresentare correttamente lo schema:
- È possibile avere un massimo di 1.000 proprietà in tutti i livelli annidati nello schema del documento e una profondità massima di annidamento pari a 127.
- Nell'archivio analitico sono rappresentate solo le prime 1.000 proprietà.
- Solo i primi 127 livelli annidati sono rappresentati nell'archivio analitico.
- Il primo livello di un documento JSON è il relativo livello radice .
- Le proprietà nel primo livello del documento verranno rappresentate come colonne.
Per altre informazioni sui vincoli dello schema, vedere Archivio analitico - Panoramica.
Tutte le operazioni transazionali vengono propagate, incluse le eliminazioni. Anche le impostazioni TTL dell'archivio analitico possono causare la rimozione dei dati.
- Se un documento viene eliminato nell'archivio transazionale, verrà eliminato anche dall'archivio analitico, nonostante i TTL di entrambi gli archivi.
- Se la durata (TTL transazionale) è inferiore alla durata (TTL) analitica, i dati vengono archiviati dall'archivio transazionale ma conservati nell'archivio analitico fino al limite TTL configurato.
- Se il TTL transazionale è maggiore del TTL analitico, i dati vengono archiviati dall'archivio analitico e conservati nell'archivio transazionale fino al limite TTL configurato.
- Se si usa l'API SQL, lo schema è ben definito per impostazione predefinita, ovvero il primo documento nella raccolta definisce lo schema dell'archivio analitico. Se un documento non è conforme allo schema del primo documento, non verrà sincronizzato con l'archivio analitico.