共用方式為


整合概觀

有許多數據連接器、工具和整合可順暢地與平臺搭配使用,以進行擷取、協調流程、輸出和數據查詢。 本檔是關於可用連接器、工具和整合的高階概觀。 每個連接器都會提供詳細資訊,以及其完整文件的連結。

如需特定整合類型的概觀頁面,請選取下列其中一個按鈕。

比較數據表

下表摘要說明每個專案的功能。 選取對應至連接器或工具和整合的索引標籤。 每個專案名稱都會連結到其 詳細描述

下表摘要說明可用的連接器及其功能:

名稱 擷取 Export 協調 Query
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
適用於 Azure Synapse Analytics 的 Apache Spark ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
事件格線 ✔️
Azure 事件中樞 ✔️
Azure Functions ✔️ ✔️
Azure IoT 中樞 ✔️
Azure 串流分析 ✔️
克里克爾串流 ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
打開遙測 ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk 通用轉寄站 ✔️
Telegraf ✔️

詳細描述

以下是連接器和工具和整合的詳細描述。 選取對應至連接器或工具和整合的索引標籤。 上述比較數據表會摘要說明所有可用的專案。

Apache Kafka

Apache Kafka 是開放原始碼分散式串流平台,可用來建置即時串流資料管線和應用程式。 Kafka Connect 是一項工具,能夠彈性且可靠地在 Apache Kafka 和其他系統之間串流資料。 Kafka 接收器可作為 Kafka 的連接器,不需要使用程式碼。 這已獲得 Confluent 金牌認證 - 經過品質、功能完整性、標準合規性與效能的全面審查及測試。

Apache Flink 是一種架構和分散式處理引擎,可用於透過未繫結和已繫結資料流進行具狀態計算。 連接器會實作數據接收器,以在 Azure 數據總管和 Flink 叢集之間行動數據。 使用 Azure 資料總管和 Apache Flink,您可以建置以數據驅動案例為目標的快速且可調整的應用程式。 例如,機器學習服務 (ML)、擷取-Transform-Load (ETL) 和 Log Analytics。

Apache Log4J 2

Log4J 是 Apache Foundation 維護的 Java 應用程式的熱門記錄架構。 可讓開發人員控制要輸出哪些記錄陳述式,而且可依記錄器名稱、記錄器層級與訊息模式等任意細微性進行輸出。 Apache Log4J 2 接收可讓您將記錄數據串流至資料庫,您可以在其中即時分析和可視化記錄。

Apache Spark

Apache Spark 是用於進行大規模資料處理的整合分析引擎。 Spark 連接器是可在任何 Spark 叢集上執行的 開放原始碼 專案。 它會實作數據源和數據接收,以便將數據移入或移出Spark叢集。 使用 Apache Spark 連接器,您可以建置以數據驅動案例為目標的快速且可調整的應用程式。 例如,機器學習服務 (ML)、擷取-Transform-Load (ETL) 和 Log Analytics。 透過連接器,您的資料庫會成為標準 Spark 來源和接收作業的有效資料存放區,例如讀取、寫入和 writeStream。

適用於 Azure Synapse Analytics 的 Apache Spark

Apache Spark 是一個平行處理架構,可支援記憶體內部處理,以大幅提升巨量資料分析應用程式的效能。 Azure Synapse Analytics 中的 Apache Spark 是 Microsoft 在雲端中的其中一種 Apache Spark 實作。 您可以使用適用於 Azure Synapse Analytics 的 Apache Spark 從 Synapse Studio 存取資料庫。

Azure Cosmos DB

Azure Cosmos DB 變更摘要數據連線是擷取管線,可接聽 Cosmos DB 變更摘要,並將數據內嵌至您的資料庫。

Azure Data Factory

Azure Data Factory (ADF) 是雲端式數據整合服務,可讓您整合不同的數據存放區,並在數據上執行活動。

事件格線

事件方格擷取是接聽 Azure 記憶體的管線,並在訂閱事件發生時更新您的資料庫以提取資訊。 您可以從 Azure 儲存體 (Blob 記憶體和 ADLSv2) 設定連續擷取,並針對建立的 Blob 或 Blob 重新命名的通知設定 Azure 事件方格 訂用帳戶,並透過 Azure 事件中樞 串流通知。

  • 功能: 擷取
  • 支援的擷取類型: 批處理、串流
  • 使用案例: 事件處理
  • 檔:事件方格數據連線

Azure 事件中樞

Azure 事件中樞是一個巨量資料串流平台與事件擷取服務。 您可以從客戶管理的事件中樞設定持續擷取。

Azure Functions

Azure Functions 可讓您根據排程或在回應事件時,在雲端執行無伺服器程式碼。 透過 Azure Functions 的輸入與輸出繫結,您可整合資料庫至工作流程,以擷取資料並針對資料庫執行查詢。

Azure IoT 中樞

Azure IoT 中樞 是裝載於雲端的受控服務,可作為IoT應用程式與其所管理裝置之間雙向通訊的中央訊息中樞。 您可以使用與裝置到雲端訊息的內建端點相容的事件中樞,從客戶管理的 IoT 中樞 設定持續擷取。

  • 功能: 擷取
  • 支援的擷取類型: 批處理、串流
  • 使用案例: IoT 數據
  • 檔:IoT 中樞 數據連線

Azure 串流分析

Azure 串流分析是即時分析與處理複雜事件的引擎,用來同時分析和處理多個來源的大量快速串流資料。

克里克爾串流

Blobl 數據流 是一種處理引擎,可安全地從任何來源收集、處理和串流計算機事件數據。 它可讓您剖析及處理任何目的地的數據以供分析。

Fluent Bit

Fluent Bit 是開放原始碼代理程式,其會收集來自各種來源的記錄、計量和追蹤。 它可讓您先篩選、修改和匯總事件數據,再將其傳送至記憶體。

JDBC

JAVA Database Connectivity (JDBC) 是用來連線到資料庫和執行查詢的 JAVA API。 您可以使用 JDBC 連線到 Azure Data Explorer。

Logic Apps

Microsoft Logic Apps 連接器可讓您在排程或觸發的工作中自動執行查詢和命令。

Logstash

Logstash 外掛程式 可讓您將來自 Logstash 的事件處理到 Azure 數據總管資料庫,以供稍後分析。

Matlab

MATLAB 是一種程式設計與數值運算平臺,可用來分析數據、開發演算法,以及建立模型。 您可以在 MATLAB 中取得授權令牌,以在 Azure 數據總管中查詢您的數據。

NLog

NLog 是各種 .NET 平台的彈性且免費的記錄平臺,包括 .NET 標準。 NLog 可讓您寫入數個目標,例如資料庫、檔案或主控台。 您可使用 NLog 立即變更記錄設定。 NLog 接收器是 NLog 的目標,可讓您傳送記錄訊息至資料庫。 外掛程式提供將記錄接收至叢集的有效方式。

ODBC

Open Database Connectivity (ODBC) 是廣泛接受的應用程式開發介面(API),可供數據庫存取。 Azure 數據總管與 SQL Server 通訊協定子集 (MS-TDS) 相容。 此相容性可讓您搭配 Azure 資料總管使用適用於 SQL Server 的 ODBC 驅動程式。

開啟遙測

OpenTelemetry 連接器支援將資料從許多接收器擷取至資料庫。 其為一座橋樑,可根據您的需求自訂匯出資料的格式,將 OpenTelemetry 所產生的資料匯入您的資料庫。

Power Apps

Power Apps 是一套應用程式、服務、連接器和數據平臺,可提供快速的應用程式開發環境,以建置連線到您商務數據的自定義應用程式。 如果您在 Azure 數據總管中擁有大量且日益成長的串流數據集合,且想要建置低程式代碼、功能高的應用程式來使用此數據,Power Apps 連接器會很有用。

Power Automate

Power Automate 是用來自動化商務程序。 Power Automate [先前Microsoft Flow] 連接器可讓您在排程或觸發的工作中協調及排程流程、傳送通知和警示。

Serilog

Serilog 是適合 .NET 應用程式的熱門記錄架構。 可讓開發人員控制要輸出哪些記錄陳述式,而且可依記錄器名稱、記錄器層級與訊息模式等任意細微性進行輸出。 Serilog 接收也稱為附加程式,會將記錄數據串流至您的資料庫,您可以在其中即時分析記錄並將其可視化。

Splunk

Splunk Enterprise 是軟體平台,可讓您同時從多個來源擷取資料。Azure 資料總管附加元件會將資料從 Splunk 傳送至叢集資料表。

Splunk 通用轉寄站

Telegraf

Telegraf 是開放原始碼、輕量、最小記憶體佔用代理程式,用於收集、處理及寫入遙測資料,包括記錄、計量與 IoT 資料。 Telegraf 支援數百個輸入與輸出外掛程式。 它得到了 開放原始碼 社區的廣泛使用和支援。 輸出外掛程式可作為 Telegraf 的連接器,並支援從許多類型的輸入外掛程式擷取資料到您的資料庫。