Panoramica delle integrazioni
Sono disponibili molti connettori dati, strumenti e integrazioni che funzionano perfettamente con la piattaforma per l'inserimento, l'orchestrazione, l'output e la query sui dati. Questo documento è una panoramica generale dei connettori, degli strumenti e delle integrazioni disponibili. Vengono fornite informazioni dettagliate per ogni connettore, insieme ai collegamenti alla relativa documentazione completa.
Per le pagine di panoramica su un tipo specifico di integrazione, selezionare uno dei pulsanti seguenti.
Tabelle di confronto
Le tabelle seguenti riepilogano le funzionalità di ogni elemento. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Ogni nome di elemento è collegato alla relativa descrizione dettagliata.
La tabella seguente riepiloga i connettori disponibili e le relative capacità:
Nome | Inserimento | Esportazione | Orchestrazione | Query |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark per Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Griglia di eventi di Azure | ✔️ | |||
Hub eventi di Azure | ✔️ | |||
Funzioni di Azure | ✔️ | ✔️ | ||
hub IoT di Azure | ✔️ | |||
Analisi di flusso di Azure | ✔️ | |||
Flusso del presepe | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
App per la logica | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
OpenTelemetry | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Descrizioni dettagliate
Di seguito sono riportate descrizioni dettagliate di connettori e strumenti e integrazioni. Selezionare la scheda corrispondente a connettori o strumenti e integrazioni. Tutti gli elementi disponibili sono riepilogati nelle tabelle di confronto precedenti.
Apache Kafka
Apache Kafka è una piattaforma di streaming distribuita per la creazione di pipeline di dati in streaming in tempo reale che consente di spostare in modo affidabile i dati tra applicazioni o sistemi. Kafka Connect è uno strumento per lo streaming dei dati scalabile e affidabile tra Apache Kafka e altri sistemi. Il sink Kafka funge da connettore per Kafka e non richiede l'uso del codice. È un sistema che ha ricevuto la certificazione di qualità da Confluent: è stato sottoposto a una revisione e a test completi per verificare la qualità, la completezza delle funzionalità, la conformità agli standard e le prestazioni.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: log, telemetria, serie temporale
- SDK sottostante: Java
- Repository: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Documentazione: Inserire dati da Apache Kafka
- Blog della community: Inserimento Kafka in Esplora dati di Azure
Apache Flink
Apache Flink è un potente framework e un modulo di elaborazione distribuito per eseguire i calcoli con stato su flussi dei dati collegati e non. Il connettore implementa il sink di dati per spostare i dati tra cluster di Esplora dati di Azure e Flink. Usando Esplora dati di Azure e Apache Flink, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log.
- Funzionalità: inserimento
- Tipo di inserimento supportato: streaming
- Use case: telemetria
- SDK sottostante: Java
- Repository: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Documentazione: Inserire dati da Apache Flink
Apache Log4J 2
Log4J è un framework di registrazione tra i più diffusi per le applicazioni Java gestite da Apache Foundation. Log4j consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Apache Log4J 2 consente di trasmettere i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: log
- SDK sottostante: Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Documentazione: Inserire dati con il connettore Apache Log4J 2
- Blog della community: Introduzione ad Apache Log4J ed Esplora dati di Azure
Apache Spark
Apache Spark è un motore di analisi unificato per l'elaborazione di dati su larga scala. Il connettore Spark è progetto open source che può essere eseguito in qualsiasi cluster Spark. Implementa l'origine dati e il sink di dati per lo spostamento di dati verso o da i cluster Spark. Usando il connettore Apache Spark, è possibile creare applicazioni veloci e scalabili destinate a scenari basati sui dati. Ad esempio, apprendimento automatico (ML), Extract-Transform-Load (ETL) e Analisi dei log. Con il connettore, il database diventa un archivio dati valido per le operazioni di origine e sink Spark standard, ad esempio lettura, scrittura e flusso di scrittura.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: telemetria
- SDK sottostante: Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Documentazione: Connettore Apache Spark
- Blog della community: Pre-elaborazione dei dati per Esplora dati di Azure con Apache Spark
Apache Spark per Azure Synapse Analytics
Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni di analisi di Big Data. Apache Spark in Azure Synapse Analytics è una delle implementazioni Microsoft di Apache Spark nel cloud. È possibile accedere a un database da Synapse Studio con Apache Spark per Azure Synapse Analytics.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch
- Use case: telemetria
- SDK sottostante: Java
- Documentazione: Connettersi a un'area di lavoro di Azure Synapse
Azure Cosmos DB
La connessione dati del feed di modifiche di Azure Cosmos DB è una pipeline di inserimento in ascolto del feed di modifiche di Cosmos DB e inserisce i dati nel database.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: feed di modifiche
- Documentazione: Inserire dati da Azure Cosmos DB (anteprima)
Azure Data Factory
Azure Data Factory (ADF) è un servizio di integrazione dei dati basato sul cloud che consente di integrare archivi dati diversi ed eseguire attività su tali dati.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch
- Use case: orchestrazione dei dati
- Documentazione: Copiare dati nel database usando Azure Data Factory
Griglia di eventi di Azure
L'inserimento di Griglia di eventi è una pipeline in ascolto dell'archiviazione di Azure e aggiorna il database per eseguire il pull delle informazioni quando si verificano eventi sottoscritti. È possibile configurare l'inserimento continuo da Archiviazione di Azure (archiviazione BLOB e ADLSv2) con una sottoscrizione Griglia di eventi di Azure per le notifiche create o rinominate nel BLOB e trasmettere le notifiche tramite Hub eventi di Azure.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: elaborazione di eventi
- Documentazione: Connessione dati di Griglia di eventi
Hub eventi di Azure
Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È possibile configurare l'inserimento continuo da Hub eventi gestiti dal cliente.
- Funzionalità: inserimento
- Tipo di inserimento supportato: Invio in batch, trasmissione
- Documentazione: Connessione dati di Hub eventi di Azure
Funzioni di Azure
Funzioni di Azure consente di eseguire codice serverless nel cloud in base a una pianificazione o in risposta a un evento. Con i binding di input e output per le Funzioni di Azure, è possibile integrare il database nei flussi di lavoro per inserire dati ed eseguire query sul database.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch
- Use case: integrazioni del flusso di lavoro
- Documentazione: Integrazione di Funzioni di Azure tramite associazioni di input e output (anteprima)
- Blog della community: Associazioni di Esplora dati di Azure (Kusto) per Funzioni di Azure
Hub di Azure IoT
hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub messaggi centrale per la comunicazione bidirezionale tra l'applicazione IoT e i dispositivi gestiti. È possibile configurare l'inserimento continuo da hub IoT gestite dal cliente, usando i relativi hub eventi compatibili con l'endpoint predefinito dei messaggi da dispositivo a cloud.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: dati IoT
- Documentazione: connessione dati hub IoT
Analisi di flusso di Azure
Analisi di flusso di Azure è un motore di elaborazione eventi complessi e di analisi in tempo reale progettato per analizzare ed elaborare contemporaneamente ingenti volumi di dati in streaming veloce da più origini.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: elaborazione di eventi
- Documentazione: Inserire dati da Analisi di flusso di Azure
Flusso del presepe
Flusso presepe è un motore di elaborazione che raccoglie, elabora e trasmette in modo sicuro i dati degli eventi del computer da qualsiasi origine. Consente di analizzare ed elaborare i dati per qualsiasi destinazione per l'analisi.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: elaborazione dei dati del computer, inclusi log, metriche, dati di strumentazione
- Documentazione: Inserire dati dal stream di Presepe in Azure Esplora dati
Fluent Bit
Fluent Bit è un agente open-source che raccoglie log, metriche e tracce da varie origini. Consente di filtrare, modificare e aggregare i dati degli eventi prima di inviarli all'archiviazione.
- Funzionalità: inserimento
- Tipo di inserimento supportato: Invio in batch
- Use case: log, metriche, tracce
- Repository: plug-in di output Kusto fluent-bit
- Documentazione: Inserire dati con Fluent Bit in Azure Esplora dati
- Blog della community: Introduzione a Fluent bit e Azure Esplora dati
JDBC
Java Database Connectivity (JDBC) è un'API Java usata per connettersi ai database ed eseguire query. È possibile usare JDBC per connettersi a Esplora dati di Azure.
- Funzionalità: query, visualizzazione
- SDK sottostante: Java
- Documentazione: Connettersi ad Azure Esplora dati con JDBC
App per la logica
Il connettore App per la logica Microsoft consente di eseguire automaticamente query e comandi come parte di un'attività pianificata o attivata.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch
- Casi d'uso: orchestrazione dei dati
- Documentazione: App per la logica Microsoft e Azure Esplora dati
Logstash
Il plug-in Logstash consente di elaborare gli eventi da Logstash in un database Esplora dati di Azure per l'analisi.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch
- Use case: log
- SDK sottostante: Java
- Repository: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Documentazione: Inserire dati da Logstash
- Blog della community: Come eseguire la migrazione da Elasticsearch a Esplora dati di Azure
Matlab
MATLAB è una piattaforma di programmazione e calcolo numerico usata per analizzare i dati, sviluppare algoritmi e creare modelli. È possibile ottenere un token di autorizzazione in MATLAB per eseguire query sui dati in Azure Esplora dati.
- Funzionalità: Query
- Documentazione: Eseguire query sui dati con MADEVICE
NLog
NLog è una piattaforma di registrazione flessibile e gratuita per varie piattaforme .NET, tra cui quella .NET Standard. NLog consente la scrittura su diverse destinazioni, ad esempio un database, un file o una console. Con NLog è possibile modificare la configurazione della registrazione in modo istantaneo. Il sink NLog è una destinazione per NLog che consente di inviare i messaggi di log al database. Il plug-in rappresenta un modo efficiente per inviare i log al cluster.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: telemetria, log, metriche
- SDK sottostante: .NET
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Documentazione: Inserire dati con il sink NLog
- Blog della community: Introduzione al sink NLog ed Esplora dati di Azure
ODBC
Open Database Connectivity (ODBC) è un'API (Application Programming Interface) ampiamente accettata per l'accesso al database. Azure Esplora dati è compatibile con un subset del protocollo di comunicazione di SQL Server (MS-TDS). Questa compatibilità consente l'uso del driver ODBC per SQL Server con Azure Esplora dati.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Casi d'uso: telemetria, log, metriche
- Documentazione: Connettersi ad Azure Esplora dati con ODBC
OpenTelemetry
Il connettore OpenTelemetry supporta l'inserimento di dati da molti ricevitori nel database. Funziona come un bridge per inserire i dati generati da OpenTelemetry al proprio database personalizzando il formato dei dati esportati in base alle proprie esigenze.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: tracce, metriche, log
- SDK sottostante: Go
- Repository: OpenTelemetry - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Documentazione: Inserire dati da OpenTelemetry
- Blog della community: Introduzione a Open Telemetry ed Esplora dati di Azure
Power Apps
Power Apps è una suite di app, servizi, connettori e piattaforma dati che offre un ambiente di sviluppo rapido di applicazioni per creare app personalizzate che si connettono ai dati aziendali. Il connettore Power Apps è utile se si dispone di una raccolta di dati di streaming di grandi dimensioni e in crescita in Azure Esplora dati e si vuole creare un'app a basso codice altamente funzionale per usare questi dati.
- Funzionalità: Query, Inserimento, Esportazione
- Tipo di inserimento supportato: invio in batch
- Documentazione: Usare Power Apps per eseguire query sui dati in Azure Esplora dati
Power Automate
Power Automate è un servizio di orchestrazione usato per automatizzare i processi di lavoro. Il connettore Power Automate (in precedenza Microsoft Flow) consente di orchestrare e pianificare flussi, inviare notifiche e avvisi come parte di un'attività pianificata o attivata.
- Funzionalità: inserimento, esportazione
- Tipo di inserimento supportato: invio in batch
- Use case: orchestrazione dei dati
- Documentazione: Connettore Microsoft Power Automate
Serilog
Serilog è un framework di registrazione diffuso per le applicazioni .NET. Serilog consente agli sviluppatori di controllare quali istruzioni di log vengono restituite con granularità arbitraria in base al nome, al livello del logger e al modello di messaggio. Il sink Serilog, noto anche come appender, trasmette i dati di log al database, in cui è possibile analizzare e visualizzare i log in tempo reale.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: log
- SDK sottostante: .NET
- Repository: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Documentazione: Inserire dati con il sink Serilog
- Blog della community: Introduzione al sink Serilog ed Esplora dati di Azure
Splunk
Splunk Enterprise è una piattaforma software che consente di inserire dati da molte origini contemporaneamente. Il componente aggiuntivo Esplora dati di Azure invia i dati da Splunk a una tabella nel cluster.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch
- Use case: log
- SDK sottostante: Python
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Documentazione: Inserire dati da Splunk
- Splunk Base: componente aggiuntivo di Microsoft Azure Esplora dati per Splunk
- Blog della community: Introduzione al componente aggiuntivo Esplora dati di Microsoft Azure per Splunk
Splunk Universal Forwarder
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch
- Casi d'uso: log
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Documentazione: Inserire dati da Splunk Universal Forwarder ad Azure Esplora dati
- Blog della community: Inserire dati con Splunk Universal Forwarder in Azure Esplora dati
Telegraf
Telegraf è un agente open source, leggero e con un footprint della memoria minimo per la raccolta, l'elaborazione e la scrittura di dati di telemetria, inclusi log, metriche e dati IoT. Telegraf supporta centinaia di plug-in di input e output. È ampiamente usato e ben supportato dalla community open source. Il plug-in di output funge da connettore da Telegraf e supporta l'inserimento di dati da molti tipi di plug-in di input nel database.
- Funzionalità: inserimento
- Tipo di inserimento supportato: invio in batch, streaming
- Use case: telemetria, log, metriche
- SDK sottostante: Go
- Repository: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Documentazione: Inserire dati da Telegraf
- Blog della community: Nuovo plug-in di output di Esplora dati di Azure per Telegraf abilita SQL Monitoring su larga scala