TabularDataset Klasse
Stellt ein tabellarisches Dataset dar, das in Azure Machine Learning verwendet werden soll.
Ein tabellarisches Dataset (TabularDataset) definiert eine Reihe von verzögert ausgewerteten, unveränderlichen Vorgängen, um Daten aus der Datenquelle in eine tabellarische Darstellung zu laden. Daten werden erst aus der Quelle geladen, wenn das TabularDataset zur Übermittlung von Daten aufgefordert wird.
Ein TabularDataset wird mit Methoden wie from_delimited_files aus der TabularDatasetFactory-Klasse erstellt.
Weitere Informationen finden Sie im Artikel Hinzufügen & Registrieren von Datasets. Informationen zu den ersten Schritten mit einem tabellarischen Dataset finden Sie unter https://aka.ms/tabulardataset-samplenotebook.
Initialisieren sie ein TabularDataset-Objekt.
Dieser Konstruktor sollte nicht direkt aufgerufen werden. Das Dataset soll mithilfe der TabularDatasetFactory -Klasse erstellt werden.
- Vererbung
-
TabularDataset
Konstruktor
TabularDataset()
Hinweise
Ein TabularDataset kann mithilfe der from_*
-Methoden der TabularDatasetFactory-Klasse aus CSV-, TSV- und Parquet-Dateien oder aus SQL-Abfragen erstellt werden. Sie können für ein TabularDataset Vorgänge für untergeordnete Einstellungen ausführen, z. B. Aufteilen, Überspringen und Filtern von Datensätzen.
Eine untergeordnete Einstellung führt immer zu mindestens einem neuen TabularDataset-Objekt.
Sie können ein TabularDataset auch in andere Formate konvertieren – etwa in einen Pandas-DataFrame. Das tatsächliche Laden von Daten erfolgt, wenn das TabularDataset angewiesen wird, die Daten in einen anderen Speichermechanismus (z. B. einen Pandas-Datenrahmen oder eine CSV-Datei) zu übermitteln.
Ein TabularDataset kann als Eingabe für eine Experimentausführung verwendet werden. Es kann auch bei einem Arbeitsbereich mit einem angegebenen Namen registriert und später mit diesem Namen abgerufen werden.
Methoden
download |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Herunterladen von Dateistreams, die vom Dataset definiert werden, an einen lokalen Pfad. |
drop_columns |
Löschen der angegebenen Spalten aus dem Dataset. Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht. |
filter |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Filtern der Daten, sodass nur die Datensätze zurückbleiben, die mit dem angegebenen Ausdruck übereinstimmen. |
get_profile |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Abrufen des Datenprofils aus der letzten Profilausführung, die für dieses oder das gleiche Dataset im Arbeitsbereich übermittelt wurde. |
get_profile_runs |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Zurückgeben vorheriger Profilausführungen, die diesem oder dem gleichen Dataset im Arbeitsbereich zugeordnet sind. |
keep_columns |
Beibehalten der angegebenen Spalten und Löschen aller anderen Spalten aus dem Dataset. Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht. |
mount |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Erstellen eines Kontext-Managers zum Einbinden von Dateistreams, die vom Dataset als lokale Dateien definiert werden. |
partition_by |
Partitionierte Daten werden kopiert und an das mit „target“ angegebene Ziel ausgegeben. Erstellen des Datasets aus dem ausgegebenen Datenpfad im Partitionsformat, Registrieren des Datasets, wenn „name“ angegeben ist, und Zurückgeben des Datasets für den neuen Datenpfad mit Partitionen.
|
random_split |
Aufteilen von Datensätzen im Dataset in zwei Teile nach dem Zufallsprinzip und ungefähr nach dem angegebenen Prozentsatz. Das erste Dataset enthält ungefähr |
skip |
Überspringen der angegebenen Anzahl von Datensätzen vom Anfang des Datasets. |
submit_profile_run |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Übermitteln einer Experimentausführung, um das Datenprofil zu berechnen. Ein Datenprofil enthält nützliche Informationen zu den Daten (z. B. Spaltentyp, fehlende Werte usw.) und kann sehr hilfreich sein, um die Eingabedaten zu verstehen sowie Anomalien und fehlende Werte zu identifizieren. |
take |
Nehmen einer Stichprobe mit der angegebenen Anzahl von Datensätzen vom Anfang des Datasets. |
take_sample |
Nehmen einer zufälligen Stichprobe von Datensätzen im Dataset, ungefähr nach der angegebenen Wahrscheinlichkeit. |
time_after |
Filtern des TabularDataset mit Zeitstempelspalten nach einer angegebenen Startzeit. |
time_before |
Filtern des TabularDataset mit Zeitstempelspalten vor einer angegebenen Endzeit. |
time_between |
Filtern des TabularDataset zwischen einer angegebenen Start- und Endzeit. |
time_recent |
Filtern des TabularDataset, sodass es nur die angegebene Dauer (Menge) aktueller Daten enthält. |
to_csv_files |
Konvertieren des aktuellen Datasets in ein FileDataset mit CSV-Dateien. Das resultierende Dataset enthält mindestens eine CSV-Datei, die jeweils einer Partition von Daten aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden. |
to_dask_dataframe |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Zurückgeben eines Dask-Datenrahmens (DataFrame), der die Daten im Dataset verzögert lesen kann. |
to_pandas_dataframe |
Laden aller Datensätze aus dem Dataset in einen Pandas-DataFrame. |
to_parquet_files |
Konvertieren des aktuellen Datasets in ein FileDataset mit Parquet-Dateien. Das resultierende Dataset enthält mindestens eine Parquet-Datei, die jeweils einer Datenpartition aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden. |
to_spark_dataframe |
Laden aller Datensätze aus dem Dataset in einen Spark-DataFrame. |
with_timestamp_columns |
Definieren von Zeitstempelspalten für das Dataset. |
download
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Herunterladen von Dateistreams, die vom Dataset definiert werden, an einen lokalen Pfad.
download(stream_column, target_path=None, overwrite=False, ignore_not_found=True)
Parameter
Name | Beschreibung |
---|---|
stream_column
Erforderlich
|
Die herunterzuladende Streamspalte. |
target_path
Erforderlich
|
Das lokale Verzeichnis, in das die Dateien heruntergeladen werden sollen. Bei „None“ (Keine) werden die Daten in ein temporäres Verzeichnis heruntergeladen. |
overwrite
Erforderlich
|
Gibt an, ob vorhandene Dateien überschrieben werden. Die Standardeinstellung lautet „false“. Vorhandene Dateien werden überschrieben, wenn „overwrite“ auf „True“ festgelegt ist. Andernfalls wird eine Ausnahme ausgelöst. |
ignore_not_found
Erforderlich
|
Gibt an, ob der Download fehlschlägt, wenn einige Dateien, auf die vom Dataset verwiesen wird, nicht gefunden werden. Der Standardwert ist True. Ist „ignore_not_found“ auf „False“ festgelegt, ist der Download nicht erfolgreich, falls bei einem Dateidownload ein beliebiger Fehler auftritt. Andernfalls wird eine Warnung für Fehler vom Typ „Nicht gefunden“ protokolliert, und der Download ist erfolgreich, solange keine anderen Fehlertypen gefunden werden. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein Array von Dateipfaden für jede heruntergeladene Datei zurück. |
drop_columns
Löschen der angegebenen Spalten aus dem Dataset.
Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht.
drop_columns(columns)
Parameter
Name | Beschreibung |
---|---|
columns
Erforderlich
|
Der Name oder eine Liste der Namen für die zu löschenden Spalten. |
Gibt zurück
Typ | Beschreibung |
---|---|
Dient zum Zurückgeben eines neuen TabularDataset-Objekts, in dem die angegebenen Spalten gelöscht wurden. |
filter
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Filtern der Daten, sodass nur die Datensätze zurückbleiben, die mit dem angegebenen Ausdruck übereinstimmen.
filter(expression)
Parameter
Name | Beschreibung |
---|---|
expression
Erforderlich
|
Der auszuwertende Ausdruck. |
Gibt zurück
Typ | Beschreibung |
---|---|
Das geänderte Dataset (nicht registriert). |
Hinweise
Ausdrücke werden gestartet, indem das Dataset mit dem Namen einer Spalte indiziert wird. Sie unterstützen eine Vielzahl von Funktionen und Operatoren und können mithilfe von logischen Operatoren kombiniert werden. Der resultierende Ausdruck wird verzögert für jeden Datensatz ausgewertet, wenn ein Datenpullvorgang erfolgt, und nicht an der Stelle, an der er definiert ist.
dataset['myColumn'] > dataset['columnToCompareAgainst']
dataset['myColumn'].starts_with('prefix')
get_profile
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Abrufen des Datenprofils aus der letzten Profilausführung, die für dieses oder das gleiche Dataset im Arbeitsbereich übermittelt wurde.
get_profile(workspace=None)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Der Arbeitsbereich, an den die Profilausführung übermittelt wurde. Der Standardwert ist der Arbeitsbereich dieses Datasets. Ist erforderlich, wenn das Dataset keinem Arbeitsbereich zugeordnet ist. Weitere Informationen zu Arbeitsbereichen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace. |
Gibt zurück
Typ | Beschreibung |
---|---|
Profilergebnis der letzten Profilausführung vom Typ „DatasetProfile“. |
get_profile_runs
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Zurückgeben vorheriger Profilausführungen, die diesem oder dem gleichen Dataset im Arbeitsbereich zugeordnet sind.
get_profile_runs(workspace=None)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Der Arbeitsbereich, an den die Profilausführung übermittelt wurde. Der Standardwert ist der Arbeitsbereich dieses Datasets. Ist erforderlich, wenn das Dataset keinem Arbeitsbereich zugeordnet ist. Weitere Informationen zu Arbeitsbereichen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein iterator-Objekt vom Typ „azureml.core.Run“. |
keep_columns
Beibehalten der angegebenen Spalten und Löschen aller anderen Spalten aus dem Dataset.
Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht.
keep_columns(columns, validate=False)
Parameter
Name | Beschreibung |
---|---|
columns
Erforderlich
|
Der Name oder eine Liste der Namen für die Spalten, die beibehalten werden sollen. |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob Daten aus dem zurückgegebenen Dataset geladen werden können. Die Standardeinstellung lautet „false“. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues TabularDataset-Objekt zurück, bei dem nur die angegebenen Spalten beibehalten werden. |
mount
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Erstellen eines Kontext-Managers zum Einbinden von Dateistreams, die vom Dataset als lokale Dateien definiert werden.
mount(stream_column, mount_point=None)
Parameter
Name | Beschreibung |
---|---|
stream_column
Erforderlich
|
Die einzubindende Streamspalte. |
mount_point
Erforderlich
|
Das lokale Verzeichnis, in das die Dateien eingebunden werden sollen. Bei „None“ werden die Daten in ein temporäres Verzeichnis eingebunden, das Sie durch Aufrufen der Instanzmethode MountContext.mount_point ermitteln können. |
Gibt zurück
Typ | Beschreibung |
---|---|
<xref:azureml.dataprep.fuse.daemon.MountContext>
|
Gibt einen Kontext-Manager zum Verwalten des Lebenszyklus der Einbindung zurück. |
partition_by
Partitionierte Daten werden kopiert und an das mit „target“ angegebene Ziel ausgegeben.
Erstellen des Datasets aus dem ausgegebenen Datenpfad im Partitionsformat, Registrieren des Datasets, wenn „name“ angegeben ist, und Zurückgeben des Datasets für den neuen Datenpfad mit Partitionen.
ds = Dataset.get_by_name('test') # indexed by country, state, partition_date
# #1: call partition_by locally
new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
target=DataPath(datastore, "repartition"))
partition_keys = newds.partition_keys # ['country']
# new_ds can be passed to PRS as input dataset
partition_by(partition_keys, target, name=None, show_progress=True, partition_as_file_dataset=False)
Parameter
Name | Beschreibung |
---|---|
partition_keys
Erforderlich
|
Erforderlich. Partitionsschlüssel |
target
Erforderlich
|
Erforderlich. Der Datenspeicherpfad, in den die Parquet-Daten des Datenrahmens hochgeladen werden. Ein GUID-Ordner wird unter dem Zielpfad generiert, um Konflikte zu vermeiden. |
name
Erforderlich
|
Optional. Der Registrierungsname. |
show_progress
Erforderlich
|
Optional. Gibt an, ob der Fortschritt des Uploads in der Konsole angezeigt werden soll. Der Standardwert ist „True“. |
partition_as_file_dataset
Erforderlich
|
Optional. Gibt an, ob ein Dateidataset (FileDataset) zurückgegeben wird. Der Standardwert ist „False“. |
Gibt zurück
Typ | Beschreibung |
---|---|
Das gespeicherte oder registrierte Dataset. |
random_split
Aufteilen von Datensätzen im Dataset in zwei Teile nach dem Zufallsprinzip und ungefähr nach dem angegebenen Prozentsatz.
Das erste Dataset enthält ungefähr percentage
der gesamten Datensätze und das zweite Dataset die verbleibenden Datensätze.
random_split(percentage, seed=None)
Parameter
Name | Beschreibung |
---|---|
percentage
Erforderlich
|
Der ungefähre Prozentsatz, nach dem das Dataset aufgeteilt werden soll. Es muss eine Zahl zwischen 0,0 und 1,0 sein. |
seed
Erforderlich
|
Ein optionaler Seed für den Zufallsgenerator. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein Tupel neuer TabularDataset-Objekte zurück, die die beiden Datasets nach der Teilung darstellen. |
skip
Überspringen der angegebenen Anzahl von Datensätzen vom Anfang des Datasets.
skip(count)
Parameter
Name | Beschreibung |
---|---|
count
Erforderlich
|
Die Anzahl der zu überspringenden Datensätze. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues TabularDataset-Objekt zurück, das ein Dataset mit übersprungenen Datensätzen darstellt. |
submit_profile_run
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Übermitteln einer Experimentausführung, um das Datenprofil zu berechnen.
Ein Datenprofil enthält nützliche Informationen zu den Daten (z. B. Spaltentyp, fehlende Werte usw.) und kann sehr hilfreich sein, um die Eingabedaten zu verstehen sowie Anomalien und fehlende Werte zu identifizieren.
submit_profile_run(compute_target, experiment, cache_datastore_name=None)
Parameter
Name | Beschreibung |
---|---|
compute_target
Erforderlich
|
Das Computeziel, auf dem das Profilberechnungsexperiment ausgeführt werden soll. Geben Sie „local“ an, um das lokale Computeziel zu verwenden. Weitere Informationen zu Computezielen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.computetarget. |
experiment
Erforderlich
|
Das Experimentobjekt. Weitere Informationen zu Experimenten finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.experiment.experiment. |
cache_datastore_name
Erforderlich
|
Der Name des Datenspeichers zum Speichern des Profilcaches. Bei „None“ wird der Standarddatenspeicher verwendet. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein Objekt vom Typ „DatasetProfileRun-Klasse“. |
take
Nehmen einer Stichprobe mit der angegebenen Anzahl von Datensätzen vom Anfang des Datasets.
take(count)
Parameter
Name | Beschreibung |
---|---|
count
Erforderlich
|
Die Anzahl zu akzeptierender Datensätze. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues TabularDataset-Objekt zurück, das das Stichprobendataset darstellt. |
take_sample
Nehmen einer zufälligen Stichprobe von Datensätzen im Dataset, ungefähr nach der angegebenen Wahrscheinlichkeit.
take_sample(probability, seed=None)
Parameter
Name | Beschreibung |
---|---|
probability
Erforderlich
|
Die Wahrscheinlichkeit, dass ein Datensatz in die Stichprobe aufgenommen wird. |
seed
Erforderlich
|
Ein optionaler Seed für den Zufallsgenerator. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues TabularDataset-Objekt zurück, das das Stichprobendataset darstellt. |
time_after
Filtern des TabularDataset mit Zeitstempelspalten nach einer angegebenen Startzeit.
time_after(start_time, include_boundary=True, validate=True)
Parameter
Name | Beschreibung |
---|---|
start_time
Erforderlich
|
Die untere Grenze zum Filtern von Daten. |
include_boundary
Erforderlich
|
Gibt an, ob die der Begrenzungszeit ( |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein TabularDataset mit dem neuen gefilterten Dataset. |
time_before
Filtern des TabularDataset mit Zeitstempelspalten vor einer angegebenen Endzeit.
time_before(end_time, include_boundary=True, validate=True)
Parameter
Name | Beschreibung |
---|---|
end_time
Erforderlich
|
Die Obergrenze zum Filtern von Daten. |
include_boundary
Erforderlich
|
Gibt an, ob die der Begrenzungszeit ( |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein TabularDataset mit dem neuen gefilterten Dataset. |
time_between
Filtern des TabularDataset zwischen einer angegebenen Start- und Endzeit.
time_between(start_time, end_time, include_boundary=True, validate=True)
Parameter
Name | Beschreibung |
---|---|
start_time
Erforderlich
|
Die Untergrenze zum Filtern von Daten. |
end_time
Erforderlich
|
Die Obergrenze zum Filtern von Daten. |
include_boundary
Erforderlich
|
Gibt an, ob die der Begrenzungszeit ( |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein TabularDataset mit dem neuen gefilterten Dataset. |
time_recent
Filtern des TabularDataset, sodass es nur die angegebene Dauer (Menge) aktueller Daten enthält.
time_recent(time_delta, include_boundary=True, validate=True)
Parameter
Name | Beschreibung |
---|---|
time_delta
Erforderlich
|
Die Dauer (Menge) aktueller Daten, die abgerufen werden soll. |
include_boundary
Erforderlich
|
Gibt an, ob die der Begrenzungszeit ( |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein TabularDataset mit dem neuen gefilterten Dataset. |
to_csv_files
Konvertieren des aktuellen Datasets in ein FileDataset mit CSV-Dateien.
Das resultierende Dataset enthält mindestens eine CSV-Datei, die jeweils einer Partition von Daten aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden.
to_csv_files(separator=',')
Parameter
Name | Beschreibung |
---|---|
separator
Erforderlich
|
Das Trennzeichen, das zum Trennen von Werten in der resultierenden Datei verwendet werden soll. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues FileDataset-Objekt mit einem Satz von CSV-Dateien zurück, die die Daten in diesem Dataset enthalten. |
to_dask_dataframe
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Zurückgeben eines Dask-Datenrahmens (DataFrame), der die Daten im Dataset verzögert lesen kann.
to_dask_dataframe(sample_size=10000, dtypes=None, on_error='null', out_of_range_datetime='null')
Parameter
Name | Beschreibung |
---|---|
sample_size
Erforderlich
|
Die Anzahl von Datensätzen, die zum Bestimmen des Schemas und der Typen gelesen werden sollen. |
dtypes
Erforderlich
|
Ein optionales Wörterbuch, das die erwarteten Spalten und deren dtypes angibt. sample_size wird ignoriert, wenn dies angegeben ist. |
on_error
Erforderlich
|
Angeben, wie Fehlerwerte im Dataset behandelt werden, z. B. Fehlerwerte, die durch einen Fehler beim Analysieren von Werten entstehen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme). |
out_of_range_datetime
Erforderlich
|
Angeben, wie Datums-/Uhrzeitwerte behandelt werden, die außerhalb des von Pandas unterstützten Bereichs liegen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme). |
Gibt zurück
Typ | Beschreibung |
---|---|
dask.dataframe.core.DataFrame |
to_pandas_dataframe
Laden aller Datensätze aus dem Dataset in einen Pandas-DataFrame.
to_pandas_dataframe(on_error='null', out_of_range_datetime='null')
Parameter
Name | Beschreibung |
---|---|
on_error
Erforderlich
|
Angeben, wie Fehlerwerte im Dataset behandelt werden, z. B. Fehlerwerte, die durch einen Fehler beim Analysieren von Werten entstehen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme). |
out_of_range_datetime
Erforderlich
|
Angeben, wie Datums-/Uhrzeitwerte behandelt werden, die außerhalb des von Pandas unterstützten Bereichs liegen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme). |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt einen Pandas-Datenrahmen (DataFrame) zurück. |
to_parquet_files
Konvertieren des aktuellen Datasets in ein FileDataset mit Parquet-Dateien.
Das resultierende Dataset enthält mindestens eine Parquet-Datei, die jeweils einer Datenpartition aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden.
to_parquet_files()
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues FileDataset-Objekt mit einer Reihe von Parquet-Dateien zurück, die die Daten in diesem Dataset enthalten. |
to_spark_dataframe
Laden aller Datensätze aus dem Dataset in einen Spark-DataFrame.
to_spark_dataframe()
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt einen Spark-Datenrahmen (DataFrame) zurück. |
with_timestamp_columns
Definieren von Zeitstempelspalten für das Dataset.
with_timestamp_columns(timestamp=None, partition_timestamp=None, validate=False, **kwargs)
Parameter
Name | Beschreibung |
---|---|
timestamp
Erforderlich
|
Der Name der Spalte „timestamp“ (früher als „fine_grain_timestamp“ bezeichnet) (optional). Der Standardwert ist „None(clear)“. |
partition_timestamp
Erforderlich
|
Der Name der Spalte „partition_timestamp“ (früher als „coarse_grain_timestamp“ bezeichnet) (optional). Der Standardwert ist „None(clear)“. |
validate
Erforderlich
|
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Die Standardeinstellung lautet „false“. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann. |
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt ein neues TabularDataset mit definierten Zeitstempelspalten zurück. |
Hinweise
Die Methode definiert Spalten, die als Zeitstempel verwendet werden sollen. Zeitstempelspalten in einem Dataset ermöglichen es, die Daten als Zeitreihendaten zu behandeln, und bieten zusätzliche Funktionen. Wenn für ein Dataset sowohl timestamp (used to be referred as fine_grain_timestamp)
als auch partition_timestamp (used to be referred as coarse grain timestamp)
angegeben sind, sollten die beiden Spalten die gleiche Zeitachse darstellen.