Erkennen von Azure Databricks-Workloads

Abgeschlossen

Azure Databricks bietet Funktionen für verschiedene Workloads, einschließlich Machine Learning und Large Language Models (LLM), Data Science, Datentechnik, BI und Datenspeicherung sowie Streamingverarbeitung.

Data Science und -technik

Diese Arbeitsauslastung richtet sich an Datenwissenschaftler und -techniker, die gemeinsam an komplexen Datenverarbeitungsaufgaben arbeiten. Die Lösung bietet eine integrierte Umgebung mit Apache Spark für die Verarbeitung von Big Data in einem Data Lakehouse und unterstützt mehrere Sprachen wie Python, R, Scala und SQL. Die Plattform erleichtert die Datensuche, Visualisierung und die Entwicklung von Datenpipelines.

Diagramm der Databricks-Datenerfassung und des Datenquellen-Bildschirms.

Machine Learning

Die Machine Learning-Workload für Azure Databricks ist für Erstellung, Training und Bereitstellung von Machine Learning-Modellen im großen Maßstab optimiert. Sie umfasst MLflow, eine Open-Source-Plattform zum Verwalten des ML-Lebenszyklus, einschließlich Experimentierung, Reproduzierbarkeit und Bereitstellung. Außerdem werden verschiedene ML-Frameworks wie TensorFlow, PyTorch und Scikit-learn unterstützt, sodass die Lösung für verschiedene ML-Aufgaben vielseitig eingesetzt werden kann.

Diagramm des Databricks Machine Learning-Bildschirms.

SQL

Die SQL-Workload richtet sich an Datenanalysten, die in erster Linie über SQL mit Daten interagieren. Sie bietet einen vertrauten SQL-Editor, Dashboards und automatische Visualisierungstools zum Analysieren und Visualisieren von Daten direkt in Azure Databricks. Diese Workload eignet sich ideal zum Ausführen schneller Ad-hoc-Abfragen und zum Erstellen von Berichten aus großen Datasets.

Diagramm des DatabricksSQL-Editor-Bildschirms.