次の方法で共有


データフロー エンドポイントを構成する

重要

Azure Arc によって実現されている Azure IoT Operations プレビューは、現在プレビュー段階です。 運用環境ではこのプレビュー ソフトウェアを使わないでください。

Azure IoT Operations の一般公開リリースが提供されたときには、新規インストールをデプロイすることが必要になります。 プレビュー インストールからのアップグレードはできません。

ベータ版、プレビュー版、または一般提供としてまだリリースされていない Azure の機能に適用される法律条項については、「Microsoft Azure プレビューの追加使用条件」を参照してください。

データフローの使用を開始するには、まず、データフロー エンドポイントを作成します。 データ フロー エンドポイントは、データフローの接続ポイントです。 エンドポイントは、データフローのソースまたは宛先として使用できます。 エンドポイントの種類には、ソースと宛先の両方として使用できるものもあれば、宛先のみのものもあります。 データフローには、少なくとも 1 つのソース エンドポイントと 1 つの宛先エンドポイントが必要です。

作業の開始

まず、次の表を使用して、構成するエンドポイントの種類を選択します。

[エンドポイントの種類] 説明 ソースとして使用可能 宛先として使用可能
MQTT MQTT ブローカー (Azure IoT Operations および Event Grid に組み込まれているものを含む) を使用した双方向メッセージングの場合。 はい はい
Kafka Kafka ブローカー (Azure Event Hubs を含む) を使用した双方向メッセージングの場合。 はい はい
Data Lake データを Azure Data Lake Gen2 ストレージ アカウントにアップロードする場合。 いいえ はい
Microsoft Fabric OneLake データを Microsoft Fabric OneLake レイクハウスにアップロードする場合。 いいえ はい
ローカル ストレージ ローカルで使用可能な永続ボリュームにデータを送信する場合。これを介して、Edge Storage Accelerator のエッジ ボリューム経由でデータをアップロードできます。 いいえ はい

エンドポイントを再利用する

各データフロー エンドポイントは、データの送信元または送信先 (host 値)、エンドポイントでの認証方法、TLS 構成やバッチ処理の設定などのその他の設定を含む構成設定のバンドルと考えてください。 そのため、1 回作成するだけで、これらの設定が同じである複数のデータフローで再利用できます。

エンドポイントをより簡単に再利用するために、MQTT または Kafka トピック フィルターは、エンドポイント構成に含まれません。 代わりに、データフロー構成でトピック フィルターを指定します。 つまり、異なるトピック フィルターを使用する複数のデータフローに同じエンドポイントを使用できます。

たとえば、既定の MQTT ブローカー データフロー エンドポイントを使用できます。 これは、異なるトピック フィルターを使用してソースと宛先の両方に使用できます。

操作エクスペリエンス ポータルを使用して MQTT から MQTT へのデータフローを作成する場合のスクリーンショット。

同様に、他のエンドポイントやトピックに同じ MQTT エンドポイントを使用する複数のデータフローを作成できます。 たとえば、データを Kafka エンドポイントに送信するデータフローに同じ MQTT エンドポイントを使用できます。

操作エクスペリエンス ポータルを使用して MQTT から Kafka へのデータフローを作成する場合のスクリーンショット。

MQTT の例と同様に、異なるトピックに同じ Kafka エンドポイントを使用するか、または異なるテーブルに同じ Data Lake エンドポイントを使用する複数のデータフローを作成できます。