Freigeben über


Grundlegendes zu den Unterschieden zwischen Dataflowtypen

Mithilfe von Dataflows werden Daten extrahiert, transformiert und in ein Speicherziel geladen, wo sie für verschiedene Szenarien genutzt werden können. Da nicht alle Speicherziele dieselben Merkmale aufweisen, unterscheiden sich einige Dataflowfunktionen und Verhaltensweisen je nach dem Speicherziel, in das der Dataflow Daten lädt. Bevor Sie einen Dataflow erstellen, müssen Sie sich darüber im Klaren sein, wie die Daten verwendet werden sollen, und das Speicherziel entsprechend den Anforderungen Ihrer Lösung auswählen.

Die Auswahl eines Speicherziels für einen Dataflow bestimmt den Typ des Dataflows. Ein Dataflow, der Daten in Dataverse-Tabellen lädt, wird als Standard-Dataflowkategorisiert. Dataflows, die Daten in analytische Tabellen laden, werden als analytischer Dataflow kategorisiert.

In Power BI erstellte Dataflows sind immer analytische Dataflows. In Power Apps erstellte Dataflows können entweder standardmäßig oder analytisch sein, je nachdem, was Sie beim Erstellen des Dataflows ausgewählt haben.

Standard-Dataflows

Ein Standard-Dataflow lädt Daten in Dataverse-Tabellen. Standard-Dataflows können nur in Power Apps erstellt werden. Ein Vorteil dieser Art von Dataflow ist, dass jede Anwendung, die von Daten in Dataverse abhängt, mit den Daten arbeiten kann, die durch Standard-Dataflows erstellt wurden. Typische Anwendungen, die Dataverse-Tabellen nutzen, sind Power Apps, Power Automate, AI Builder und Power Virtual Agents.

So erstellen Sie einen Dataflow in Power Apps:

  1. Wählen Sie auf den Registerkarten von Power Apps die Option Mehr aus.

  2. Wählen Sie Dataflows.

    Screenshot der Power Apps-Benutzeroberfläche, wobei die Schaltfläche „Mehr“ und die Dataflow-Auswahl hervorgehoben sind.

  3. Wählen Sie Neuer Datenfluss.

    Screenshot der Power Apps-Benutzeroberfläche mit der Option „Neuer Dataflow“ zum Erstellen eines Standard-Dataflows.

Beim Erstellen des ersten Dataflows können Sie auch die Schaltfläche Dataflow erstellen auswählen.

Versionen der Standard-Dataflows

Hinweis

Wir empfehlen Power Platform-Datenflowbenutzern, von standardmäßigen V1-Datenflüssen zu standardmäßigen V2-Datenflüssen zu migrieren. Standardmäßige V1-Datenflüsse befinden sich in naher Zukunft auf einem Weg, die Unterstützung nicht mehr zu unterstützen. Weitere Informationen zum Migrieren zu standardmäßigen V2-Datenflüssen wechseln Sie zu "Migrieren eines V1-Standarddatenflusses" zu einem V2-Standarddatenfluss.

Wir haben an umfangreichen Aktualisierungen der Standarddatenströme gearbeitet, um ihre Leistung und Zuverlässigkeit zu verbessern. Diese Verbesserungen werden schließlich für alle Standard-Dataflows verfügbar sein. In der Zwischenzeit werden wir zwischen bestehenden Standard-Dataflows (Version 1) und neuen Standard-Dataflows (Version 2) unterscheiden, indem wir einen Versionsindikator in Power Apps hinzufügen.

Screenshot der Power Apps-Benutzeroberfläche mit hervorgehobenen Beispielen für Dataflows der Version 1 und 2.

Vergleich der Merkmale der Standard-Dataflowversionen

In der folgenden Tabelle sind die wichtigsten Unterschiede zwischen den Standard-Dataflows V1 und V2 aufgeführt, und sie enthält Informationen über das Verhalten der einzelnen Funktionen in jeder Version.

Feature V1 Standard Standard V2
Maximale Anzahl von Dataflows, die mit automatischem Zeitplan pro Kundenmieter gespeichert werden können 50 Unbegrenzt
Maximale Anzahl von Datensätzen, die pro Abfrage/Tabelle aufgenommen werden 500.000 Unbegrenzt. Die maximale Anzahl der Datensätze, die pro Abfrage oder Tabelle importiert werden können, hängt nun von den Dataverse-Service-Schutzgrenzen zum Zeitpunkt des Ingestion ab.
Geschwindigkeit der Aufnahme in das Dataverse Baselineleistung Die Leistung wurde um einige Faktoren verbessert. Die tatsächlichen Ergebnisse können variieren und hängen von den Eigenschaften der erfassten Daten und der Auslastung des Dataverse-Dienstes zum Zeitpunkt der Erfassung ab.
Inkrementelle Aktualisierungspolitik Nicht unterstützt Unterstützt
Resilienz Wenn die Schutzgrenzen des Dataverse-Dienstes erreicht sind, wird ein Datensatz bis zu drei Mal wiederholt. Wenn die Schutzgrenzen des Dataverse-Dienstes erreicht sind, wird ein Datensatz bis zu drei Mal wiederholt.
Integration von Power Automate Nicht unterstützt Unterstützt

Analytische Dataflows

Ein analytischer Dataflow lädt Daten in Speichertypen, die für Analysen optimiert sind - Azure Data Lake Storage. Microsoft Power Platform-Umgebungen und Power BI-Arbeitsbereiche bieten einen verwalteten analytischen Speicherort, der mit den betreffenden Produktlizenzen gebündelt ist. Darüber hinaus können Kunden das Azure Data Lake-Speicherkonto ihres Unternehmens als Ziel für Dataflows verknüpfen.

Analytische Dataflows bieten zusätzliche analytische Funktionen. Zum Beispiel die Integration mit den KI-Features von Power BI oder die Verwendung von berechneten Tabelle, auf die wir später eingehen.

Sie können in Power BI analytische Dataflows erstellen. Standardmäßig werden die Daten in den verwalteten Speicher von Power BI geladen. Sie können Power BI aber auch so konfigurieren, dass die Daten im Azure Data Lake Storage des Unternehmens gespeichert werden.

Screenshot des Arbeitsbereichs des Power BI-Diensts mit den Schritten zur Erstellung eines analytischen Dataflows in Power BI.

Sie können auch analytische Dataflows in Power Apps und Dynamics 365 Customer Insights Portalen erstellen. Wenn Sie einen Dataflow im Power Apps-Portal erstellen, können Sie zwischen dem von Dataverse verwalteten analytischen Speicher oder dem Azure Data Lake Storage-Konto Ihres Unternehmens wählen.

Screenshot des Dialogfelds „Neuer Dataflow“, in dem gezeigt wird, wie ein analytischer Dataflow in Power Platform erstellt wird.

KI-Integration

Je nach Anforderung kann es erforderlich sein, einige KI- und maschinelle Lernfunktionen über den Dataflow auf die Daten anzuwenden. Diese Funktionalitäten sind in Power BI-Dataflows verfügbar und erfordern einen Premium-Arbeitsbereich.

Screenshot des Power Query-Menübands, das beim Transformieren eines analytischen Dataflows angezeigt wird, wobei die KI-Insights-Option hervorgehoben ist.

In den folgenden Artikeln wird erörtert, wie AI-Funktionen in einem Dataflow verwendet werden:

Die in den beiden vorherigen Abschnitten aufgeführten Features sind spezifisch für Power BI und nicht verfügbar, wenn Sie einen Dataflow in den Portalen von Power Apps oder Dynamics 365 Customer Insights erstellen.

Berechnete Tabellen

Einer der Gründe für die Verwendung einer berechneten Tabelle ist die Fähigkeit, große Datenmengen zu verarbeiten. Die berechnete Tabelle hilft in diesen Szenarien. Wenn Sie eine Tabelle in einem Dataflow haben und eine andere Tabelle in demselben Dataflow die Ausgabe der ersten Tabelle verwendet, wird mit dieser Aktion eine berechnete Tabelle erstellt.

Die berechnete Tabelle hilft bei der Durchführung der Datentransformationen. Anstatt die in der ersten Tabelle erforderlichen Transformationen mehrfach zu wiederholen, wird die Transformation nur einmal in der berechneten Tabelle durchgeführt. Dann wird das Ergebnis mehrfach in anderen Tabellen verwendet.

Berechnete Tabellen in einem analytischen Dataflow.

Weitere Informationen über berechnete Tabellen finden Sie unter Erstellen von berechneten Tabellen in Dataflows.

Berechnete Tabellen sind nur in einem analytischen Dataflow verfügbar.

Standard- vs. analytische Dataflows

In der folgenden Tabelle sind einige Unterschiede zwischen einer Standardtabelle und einer analytischen Tabelle aufgeführt.

Vorgang Standard Analytisch
Vorgehensweise: Erstellen Power Platform-Dataflows Power BI-Dataflows
Power Platform-Dataflows durch Auswahl des Kontrollkästchens Analytical Entities only beim Erstellen des Dataflows
Speicheroptionen Dataverse Von Power BI bereitgestellter Azure Data Lake-Speicher für Power BI-Dataflows, von Dataverse bereitgestellter Azure Data Lake-Speicher für Power Platform-Dataflows oder vom Kunden bereitgestellter Azure Data Lake-Speicher
Power Query-Umwandlungen Ja Ja
KI-Funktionen No Ja
Berechnete Tabelle No Ja
Kann in anderen Anwendungen verwendet werden Ja, durch Dataverse Power BI-Dataflows: Nur in Power BI
Power Platform-Dataflows oder externe Power BI-Dataflows: Ja, über Azure Data Lake Storage
Zuordnung zur Standardtabelle Ja Ja
Inkrementelles Laden Standardmäßige inkrementelle Belastung
Kann über das Kontrollkästchen Zeilen löschen, die in der Abfrageausgabe nicht mehr vorhanden sind bei den Ladeeinstellungen geändert werden
Standard-Volllast
Es ist möglich, eine inkrementelle Aktualisierung einzurichten, indem die inkrementelle Aktualisierung in den Datafloweinstellungen eingerichtet wird
Geplante Aktualisierung Ja Ja, die Möglichkeit, die Datafloweigentümer bei einem Ausfall zu benachrichtigen

Szenarien für die Verwendung der einzelnen Dataflowtypen

Im Folgenden finden Sie einige Beispielszenarien und Empfehlungen für bewährte Verfahren für jede Art von Dataflow.

Plattformübergreifende Nutzung - Standard-Dataflow

Wenn Ihr Plan für die Erstellung von Dataflows darin besteht, gespeicherte Daten in mehreren Plattformen zu verwenden (nicht nur Power BI, sondern auch andere Microsoft Power Platform-Dienste, Dynamics 365 usw.), ist ein Standard-Dataflow eine gute Wahl. Standard-Dataflows speichern die Daten in Dataverse, auf das Sie über viele andere Plattformen und Dienste zugreifen können.

Umfangreiche Datentransformationen bei großen Datentabellen - analytischer Dataflow

Analytische Dataflows sind eine hervorragende Option für die Verarbeitung großer Datenmengen. Analytische Dataflows erhöhen auch die Rechenleistung hinter der Transformation. Wenn die Daten in Azure Data Lake Storage gespeichert werden, erhöht sich die Schreibgeschwindigkeit an einem Zielort. Im Vergleich zu Dataverse (bei dem zum Zeitpunkt der Datenspeicherung viele Regeln überprüft werden müssen) ist Azure Data Lake Storage schneller für Lese-/Schreibtransaktionen bei großen Datenmengen.

AI-Funktionen - analytischer Dataflow

Wenn Sie in der Phase der Datentransformation KI-Funktionen nutzen möchten, ist es hilfreich, einen analytischen Dataflow zu verwenden, da Sie bei dieser Art von Dataflow alle unterstützten KI-Funktionen nutzen können.