ApplicationId |
Zeichenfolge |
Die Anwendungs-ID der Anwendung, die den Datensatz erzeugt. |
_BilledSize |
real |
Die Datensatzgröße in Bytes. |
ClusterDnsName |
Zeichenfolge |
Der DNS-Name des Clusters, der die Spark SQL-Ausführung ausführt. |
ClusterTenantId |
Zeichenfolge |
Die Mandanten-ID des Clusters, der die Spark SQL-Ausführung ausführt. |
EndTime |
datetime |
Die Zeit (UTC) der Spark SQL-Ausführung wurde beendet. |
ExecutionId |
Zeichenfolge |
Die ID der Spark SQL-Ausführung. |
Host |
Zeichenfolge |
Der FQDN des Hosts. |
IP-Adresse |
Zeichenfolge |
Die IP-Adresse des Knotens, der die Spark SQL-Ausführung ausführt. |
_IsBillable |
Zeichenfolge |
Gibt an, ob die Erfassung der Daten gebührenpflichtig ist. Wenn _IsBillable auf false festgelegt ist, wird die Datenerfassung Ihrem Azure-Konto nicht in Rechnung gestellt. |
PhysicalPlanDescription |
Zeichenfolge |
Die Beschreibung des physischen/logischen Plans der Spark SQL-Ausführung. |
Region |
Zeichenfolge |
Der Bereich des Clusters, in dem die Spark SQL-Ausführung ausgeführt wird. |
_ResourceId |
Zeichenfolge |
Ein eindeutiger Bezeichner für die Ressource, der der Datensatz zugeordnet ist. |
Role |
Zeichenfolge |
Der Typ des Knotens, der die Spark SQL-Ausführung ausführt. |
SourceSystem |
Zeichenfolge |
Typ des Agents, von dem das Ereignis gesammelt wurde. Beispiel: OpsManager für den Windows-Agent (direkte Verbindung oder Operations Manager), Linux für alle Linux-Agents oder Azure für die Azure-Diagnose |
SparkPlanInfo |
Zeichenfolge |
Json-Objekt, das Informationen zur Spark SQL-Ausführung enthält. |
StartTime |
datetime |
Die Zeit (UTC) der Spark SQL-Ausführung gestartet. |
_SubscriptionId |
Zeichenfolge |
Ein eindeutiger Bezeichner für das Abonnement, dem der Datensatz zugeordnet ist. |
TenantId |
Zeichenfolge |
Die ID des Log Analytics-Arbeitsbereichs. |
TimeGenerated |
datetime |
Der Zeitstempel (UTC), wann das Protokoll generiert wurde. |
type |
Zeichenfolge |
Der Name der Tabelle. |
UserSubscriptionId |
Zeichenfolge |
Die Abonnement-ID des Clusters, der die Spark SQL-Ausführung ausführt. |