Condividi tramite


Panoramica delle integrazioni

Sono disponibili molti connettori dati, strumenti e integrazioni che funzionano perfettamente con la piattaforma per l'inserimento, l'orchestrazione, l'output e la query sui dati. Questo documento è una panoramica generale dei connettori, degli strumenti e delle integrazioni disponibili. Vengono fornite informazioni dettagliate per ogni connettore, insieme ai collegamenti alla relativa documentazione completa.

Per le pagine di panoramica su un tipo specifico di integrazione, selezionare uno dei pulsanti seguenti.

Tabelle di confronto

Le tabelle seguenti riepilogano le funzionalità di ogni elemento. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Ogni nome di elemento è collegato alla relativa descrizione dettagliata.

La tabella seguente riepiloga i connettori disponibili e le relative capacità:

Nome Inserimento Esportazione Orchestrazione Query
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark per Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Griglia di eventi di Azure ✔️
Hub eventi di Azure ✔️
Funzioni di Azure ✔️ ✔️
hub IoT di Azure ✔️
Analisi di flusso di Azure ✔️
Flusso del presepe ✔️
Fluent Bit ✔️
JDBC ✔️
App per la logica ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
OpenTelemetry ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Descrizioni dettagliate

Di seguito sono riportate descrizioni dettagliate di connettori e strumenti e integrazioni. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Tutti gli elementi disponibili sono riepilogati nelle tabelle di confronto precedenti.

Apache Kafka

Apache Kafka è una piattaforma di streaming distribuita per la creazione di pipeline di dati in streaming in tempo reale che consente di spostare in modo affidabile i dati tra applicazioni o sistemi. Kafka Connect è uno strumento per lo streaming dei dati scalabile e affidabile tra Apache Kafka e altri sistemi. Il sink Kafka funge da connettore per Kafka e non richiede l'uso del codice. È un sistema che ha ricevuto la certificazione di qualità da Confluent: è stato sottoposto a una revisione e a test completi per verificare la qualità, la completezza delle funzionalità, la conformità agli standard e le prestazioni.

Apache Flink è un potente framework e un modulo di elaborazione distribuito per eseguire i calcoli con stato su flussi dei dati collegati e non. Il connettore implementa il sink di dati per spostare i dati tra cluster di Esplora dati di Azure e Flink. Usando Esplora dati di Azure e Apache Flink, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log.

Apache Log4J 2

Log4J è un framework di registrazione tra i più diffusi per le applicazioni Java gestite da Apache Foundation. Log4j consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Apache Log4J 2 consente di trasmettere i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Apache Spark

Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Il connettore Spark è progetto open source che può essere eseguito in qualsiasi cluster Spark. Implementa l'origine dati e il sink di dati per lo spostamento di dati verso o da i cluster Spark. Usando il connettore Apache Spark, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log. Con il connettore, il database diventa un archivio dati valido per le operazioni di origine e sink Spark standard, ad esempio lettura, scrittura e flusso di scrittura.

Apache Spark per Azure Synapse Analytics

Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni di analisi di Big Data. Apache Spark in Azure Synapse Analytics è una delle implementazioni Microsoft di Apache Spark nel cloud. È possibile accedere a un database da Synapse Studio con Apache Spark per Azure Synapse Analytics.

Azure Cosmos DB

La connessione dati del feed di modifiche di Azure Cosmos DB è una pipeline di inserimento in ascolto del feed di modifiche di Cosmos DB e inserisce i dati nel database.

Azure Data Factory

Azure Data Factory (ADF) è un servizio di integrazione dei dati basato sul cloud che consente di integrare archivi dati diversi ed eseguire attività su tali dati.

Griglia di eventi di Azure

L'inserimento di Griglia di eventi è una pipeline in ascolto dell'archiviazione di Azure e aggiorna il database per eseguire il pull delle informazioni quando si verificano eventi sottoscritti. È possibile configurare l'inserimento continuo da Archiviazione di Azure (archiviazione BLOB e ADLSv2) con una sottoscrizione Griglia di eventi di Azure per le notifiche create o rinominate nel BLOB e trasmettere le notifiche tramite Hub eventi di Azure.

Hub eventi di Azure

Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È possibile configurare l'inserimento continuo da Hub eventi gestiti dal cliente.

Funzioni di Azure

Funzioni di Azure consente di eseguire codice serverless nel cloud in base a una pianificazione o in risposta a un evento. Con i binding di input e output per le Funzioni di Azure, è possibile integrare il database nei flussi di lavoro per inserire dati ed eseguire query sul database.

Hub di Azure IoT

hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub messaggi centrale per la comunicazione bidirezionale tra l'applicazione IoT e i dispositivi gestiti. È possibile configurare l'inserimento continuo da hub IoT gestite dal cliente, usando i relativi hub eventi compatibili con l'endpoint predefinito dei messaggi da dispositivo a cloud.

  • Funzionalità: inserimento
  • Tipo di inserimento supportato: invio in batch, streaming
  • Casi d'uso: dati IoT
  • Documentazione: connessione dati hub IoT

Analisi di flusso di Azure

Analisi di flusso di Azure è un motore di elaborazione eventi complessi e di analisi in tempo reale progettato per analizzare ed elaborare contemporaneamente ingenti volumi di dati in streaming veloce da più origini.

Flusso del presepe

Flusso presepe è un motore di elaborazione che raccoglie, elabora e trasmette in modo sicuro i dati degli eventi del computer da qualsiasi origine. Consente di analizzare ed elaborare i dati per qualsiasi destinazione per l'analisi.

Fluent Bit

Fluent Bit è un agente open-source che raccoglie log, metriche e tracce da varie origini. Consente di filtrare, modificare e aggregare i dati degli eventi prima di inviarli all'archiviazione.

JDBC

Java Database Connectivity (JDBC) è un'API Java usata per connettersi ai database ed eseguire query. È possibile usare JDBC per connettersi a Esplora dati di Azure.

App per la logica

Il connettore App per la logica Microsoft consente di eseguire automaticamente query e comandi come parte di un'attività pianificata o attivata.

Logstash

Il plug-in Logstash consente di elaborare gli eventi da Logstash in un database Esplora dati di Azure per l'analisi.

Matlab

MATLAB è una piattaforma di programmazione e calcolo numerico usata per analizzare i dati, sviluppare algoritmi e creare modelli. È possibile ottenere un token di autorizzazione in MATLAB per eseguire query sui dati in Azure Esplora dati.

NLog

NLog è una piattaforma di registrazione flessibile e gratuita per varie piattaforme .NET, tra cui quella .NET Standard. NLog consente la scrittura su diverse destinazioni, ad esempio un database, un file o una console. Con NLog è possibile modificare la configurazione della registrazione in modo istantaneo. Il sink NLog è una destinazione per NLog che consente di inviare i messaggi di log al database. Il plug-in rappresenta un modo efficiente per inviare i log al cluster.

ODBC

Open Database Connectivity (ODBC) è un'API (Application Programming Interface) ampiamente accettata per l'accesso al database. Azure Esplora dati è compatibile con un subset del protocollo di comunicazione di SQL Server (MS-TDS). Questa compatibilità consente l'uso del driver ODBC per SQL Server con Azure Esplora dati.

OpenTelemetry

Il connettore OpenTelemetry supporta l'inserimento di dati da molti ricevitori nel database. Funziona come un bridge per inserire i dati generati da OpenTelemetry al proprio database personalizzando il formato dei dati esportati in base alle proprie esigenze.

Power Apps

Power Apps è una suite di app, servizi, connettori e piattaforma dati che offre un ambiente di sviluppo rapido di applicazioni per creare app personalizzate che si connettono ai dati aziendali. Il connettore Power Apps è utile se si dispone di una raccolta di dati di streaming di grandi dimensioni e in crescita in Azure Esplora dati e si vuole creare un'app a basso codice altamente funzionale per usare questi dati.

Power Automate

Power Automate è un servizio di orchestrazione usato per automatizzare i processi di lavoro. Il connettore Power Automate (in precedenza Microsoft Flow) consente di orchestrare e pianificare flussi, inviare notifiche e avvisi come parte di un'attività pianificata o attivata.

  • Funzionalità: inserimento, esportazione
  • Tipo di inserimento supportato: invio in batch
  • Use case: orchestrazione dei dati
  • Documentazione: Connettore Microsoft Power Automate

Serilog

Serilog è un framework di registrazione diffuso per le applicazioni .NET. Serilog consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Serilog, noto anche come appender, trasmette i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.

Splunk

Splunk Enterprise è una piattaforma software che consente di inserire dati da molte origini contemporaneamente. Il componente aggiuntivo Esplora dati di Azure invia i dati da Splunk a una tabella nel cluster.

Splunk Universal Forwarder

Telegraf

Telegraf è un agente open source, leggero e con un footprint della memoria minimo per la raccolta, l'elaborazione e la scrittura di dati di telemetria, inclusi log, metriche e dati IoT. Telegraf supporta centinaia di plug-in di input e output. È ampiamente usato e ben supportato dalla community open source. Il plug-in di output funge da connettore da Telegraf e supporta l'inserimento di dati da molti tipi di plug-in di input nel database.