다음을 통해 공유


Azure Event Hubs에 대한 Apache Kafka 개발자 가이드

이 문서에서는 Azure Event Hubs와 Apache Kafka 애플리케이션을 통합하는 방법을 설명하는 문서의 링크를 제공합니다.

개요

Event Hubs는 기존 Kafka 기반 애플리케이션이 사용자 고유의 Kafka 클러스터를 실행하는 대신 사용할 수 있는 Kafka 엔드포인트를 제공합니다. Event Hubs는 대부분의 기존 Kafka 애플리케이션에서 작동합니다. 자세한 내용은 Apache Kafka용 Event Hubs를 참조하세요.

빠른 시작

GitHub와 이 콘텐츠 집합에서 Kafka용 Event Hubs에 더 빨리 익숙해지는 데 도움이 되는 빠른 시작을 사용할 수 있습니다.

GitHub의 빠른 시작

azure-event-hubs-for-kafka 리포지토리에서 다음 빠른 시작을 참조하세요.

클라이언트 언어/프레임워크 설명
.NET

이 빠른 시작에서는 .NET Core 2.0을 사용하여 C#으로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.

샘플은 Kafka용 Event Hubs에서 사용하기 위해 수정된 Confluent의 Apache Kafka .NET 클라이언트를 기반으로 합니다.

Java 이 빠른 시작에서는 Java로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.
Node.js

이 빠른 시작에서는 Node로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.

샘플은 node-rdkafka 라이브러리를 사용합니다.

Python

이 빠른 시작에서는 Python으로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.

샘플은 Kafka용 Event Hubs에서 사용하기 위해 수정된 Confluent의 Apache Kafka Python 클라이언트를 기반으로 합니다.

Go

이 빠른 시작에서는 Go로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.

샘플은 Kafka용 Event Hubs에서 사용하기 위해 수정된 Confluent의 Apache Kafka Golang 클라이언트를 기반으로 합니다.

Sarama kafka Go 이 빠른 시작에서는 Sarama Kafka 클라이언트 라이브러리를 사용하여 Go로 작성된 예제 생산자 및 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.
Kafka 이 빠른 시작에서는 Apache Kafka 배포와 함께 제공되는 CLI를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.
kcat kcat는 librdkafka를 기반으로 하는 비 JVM 명령줄 소비자 및 생산자로, 빠른 속도와 적은 메모리 공간 때문에 널리 사용됩니다. 이 빠른 시작에는 샘플 구성과 여러 개의 간단한 샘플 kafkacat 명령이 포함되어 있습니다.

DOCS의 빠른 시작

이 콘텐츠 집합에서 Kafka 프로토콜을 사용하여 Event Hubs로 데이터 스트리밍 빠른 시작을 참조하세요. Event Hubs로 스트리밍하는 방법에 대한 단계별 지침이 제공됩니다. 생산자와 소비자가 애플리케이션 구성을 간단하게 변경하여 Event Hubs로 대화하는 방법을 알아봅니다.

자습서

GitHub의 자습서

GitHub에서 다음 자습서를 참조하세요.

자습서 설명
Akka 이 자습서에서는 프로토콜 클라이언트를 변경하거나 사용자 고유의 클러스터를 실행하지 않고 Akka Streams를 Kafka 지원 Event Hubs에 연결하는 방법을 보여 줍니다. JavaScala 프로그래밍 언어를 사용하는 두 가지 별도의 자습서가 있습니다.
연결 이 문서에서는 Kafka Connect를 Azure Event Hubs와 통합하고 기본 FileStreamSource 및 FileStreamSink 커넥터를 배포하는 단계를 안내합니다. 이러한 커넥터는 프로덕션용은 아니지만 Azure Event Hubs가 Kafka broker로 가장하는 엔드 투 엔드 Kafka Connect 시나리오를 보여 줍니다.
Filebeat 이 문서에서는 Filebeat의 Kafka 출력을 통해 Filebeat 및 Event Hubs를 통합하는 단계를 안내합니다.
Flink 이 자습서에서는 프로토콜 클라이언트를 변경하거나 사용자 고유의 클러스터를 실행하지 않고 Apache Flink를 Kafka 지원 Event Hubs에 연결하는 방법을 보여 줍니다.
FluentD 이 문서에서는 Fluentd용 출력 플러그 인을 사용하여 Fluentd 및 Event Hubs를 통합하는 out_kafka 방법에 대해 설명합니다.
Interop 이 자습서에서는 다양한 프로토콜을 사용하여 소비자와 생산자 간에 이벤트를 교환하는 방법을 보여 줍니다.
Logstash 이 자습서에서는 Logstash Kafka 입력/출력 플러그 인을 사용하여 Kafka 지원 Event Hubs와 Logstash를 통합하는 방법에 대해 설명합니다.
MirrorMaker 이 자습서에서는 Event Hubs 서비스에서 Kafka 입력 스트림을 미러하여 이벤트 허브와 Kafka MirrorMaker가 기존 Kafka 파이프라인을 Azure에 통합할 수 있는 방법을 보여 줍니다.
NiFi 이 자습서에서는 Apache NiFi를 Event Hubs 네임스페이스에 연결하는 방법을 보여 줍니다.
OAuth 빠른 시작에서는 Go 및 Java 프로그래밍 언어로 작성된 예제 생산자와 소비자를 사용하여 Event Hubs Kafka 엔드포인트를 만들고 연결하는 방법을 보여 줍니다.
Confluent의 스키마 레지스트리 이 자습서에서는 Kafka용 스키마 레지스트리 및 Event Hubs 통합을 안내합니다.
Spark 이 자습서에서는 프로토콜 클라이언트를 변경하거나 고유한 Kafka 클러스터를 실행하지 않고 Spark 애플리케이션을 이벤트 허브에 연결하는 방법을 보여 줍니다.

DOCS의 자습서

이 콘텐츠 집합에서 Stream Analytics를 사용하여 Event Hubs 이벤트에 대해 Apache Kafka 처리 자습서도 참조하세요. 데이터를 Event Hubs로 스트리밍하고 Azure Stream Analytics로 처리하는 방법을 보여 줍니다.

방법 가이드

설명서에서 다음과 같은 방법 가이드를 참조하세요.

아티클 설명
이벤트 허브에서 Kafka broker 미러링 Kafka MirrorMaker를 사용하여 이벤트 허브에서 Kafka broker를 미러하는 방법을 보여 줍니다.
이벤트 허브에 Apache Spark 연결 실시간으로 스트리밍을 위해 Spark 애플리케이션을 Event Hubs에 연결하는 과정을 안내합니다.
이벤트 허브에 Apache Flink 연결 프로토콜 클라이언트를 변경하거나 사용자 고유의 클러스터를 실행하지 않고 Apache Flink를 이벤트 허브에 연결하는 방법을 보여 줍니다.
이벤트 허브와 Apache Kafka Connect 통합(미리 보기) 이벤트 허브와 Kafka Connect를 통합하고 기본 FileStreamSource 및 FileStreamSink 커넥터를 배포하는 과정을 안내합니다.
이벤트 허브에 Akka Streams 연결 프로토콜 클라이언트를 변경하거나 사용자 고유의 클러스터를 실행하지 않고 Akka Streams를 이벤트 허브에 연결하는 방법을 보여 줍니다.
Spring Boot Starter를 통해 Azure Event Hubs와 함께 Apache Kafka 사용 Azure Event Hubs와 함께 Apache Kafka를 사용하도록 Spring Boot Initializer로 만든 Java 기반 Spring Cloud Stream Binder를 구성하는 방법을 보여 줍니다.

다음 단계

GitHub 리포지토리 azure-event-hubs-for-kafka에서 빠른 시작 및 자습서 폴더 아래에 있는 샘플을 검토합니다.

다음 문서도 참조하세요.