Partager via


SynapseSparkJobDefinitionActivity Classe

Définition

Exécuter l’activité de travail Spark.

[System.Text.Json.Serialization.JsonConverter(typeof(Azure.Analytics.Synapse.Artifacts.Models.SynapseSparkJobDefinitionActivity+SynapseSparkJobDefinitionActivityConverter))]
public class SynapseSparkJobDefinitionActivity : Azure.Analytics.Synapse.Artifacts.Models.ExecutionActivity
[<System.Text.Json.Serialization.JsonConverter(typeof(Azure.Analytics.Synapse.Artifacts.Models.SynapseSparkJobDefinitionActivity+SynapseSparkJobDefinitionActivityConverter))>]
type SynapseSparkJobDefinitionActivity = class
    inherit ExecutionActivity
Public Class SynapseSparkJobDefinitionActivity
Inherits ExecutionActivity
Héritage
SynapseSparkJobDefinitionActivity
Attributs

Constructeurs

SynapseSparkJobDefinitionActivity(String, SynapseSparkJobReference)

Initialise une nouvelle instance de SynapseSparkJobDefinitionActivity.

Propriétés

AdditionalProperties

Propriétés supplémentaires.

(Hérité de Activity)
Arguments

L’utilisateur a spécifié des arguments à SynapseSparkJobDefinitionActivity.

ClassName

L’identificateur complet ou la classe main qui se trouve dans le fichier de définition main, qui remplace le « className » de la définition de travail Spark que vous fournissez. Type : chaîne (ou Expression avec chaîne resultType).

Conf

Propriétés de configuration Spark, qui remplacent la « conf » de la définition de travail Spark que vous fournissez.

ConfigurationType

Type de la configuration Spark.

DependsOn

L’activité dépend de la condition.

(Hérité de Activity)
Description

Description de l’activité.

(Hérité de Activity)
DriverSize

Nombre de cœurs et de mémoire à utiliser pour le pilote alloué dans le pool Spark spécifié pour le travail, qui sera utilisé pour remplacer « driverCores » et « driverMemory » de la définition de travail Spark que vous fournissez. Type : chaîne (ou Expression avec chaîne resultType).

ExecutorSize

Nombre de cœurs et de mémoire à utiliser pour les exécuteurs alloués dans le pool Spark spécifié pour le travail, qui seront utilisés pour remplacer « executorCores » et « executorMemory » de la définition de travail Spark que vous fournissez. Type : chaîne (ou Expression avec chaîne resultType).

File

Fichier main utilisé pour le travail, qui remplace le « fichier » de la définition de travail Spark que vous fournissez. Type : chaîne (ou Expression avec chaîne resultType).

Files

(Déconseillé. Utilisez pythonCodeReference et filesV2) Fichiers supplémentaires utilisés pour référence dans le fichier de définition main, qui remplacent les « fichiers » de la définition de travail Spark que vous fournissez.

FilesV2

Fichiers supplémentaires utilisés pour référence dans le fichier de définition main, qui remplacent les fichiers « jars » et « files » de la définition de travail Spark que vous fournissez.

LinkedServiceName

Informations de référence sur les services liés.

(Hérité de ExecutionActivity)
Name

Nom de l’activité.

(Hérité de Activity)
NumExecutors

Nombre d’exécuteurs à lancer pour ce travail, qui remplace les « numExecutors » de la définition de travail Spark que vous fournissez. Type : entier (ou Expression avec un entier resultType).

OnInactiveMarkAs

Résultat de l’état de l’activité lorsque l’état est défini sur Inactif. Il s’agit d’une propriété facultative et, si elle n’est pas fournie lorsque l’activité est inactive, la status est Succeeded par défaut.

(Hérité de Activity)
Policy

Stratégie d’activité.

(Hérité de ExecutionActivity)
PythonCodeReference

Fichiers de code Python supplémentaires utilisés pour référence dans le fichier de définition main, qui remplacent les « pyFiles » de la définition de travail Spark que vous fournissez.

ScanFolder

En analysant les sous-dossiers à partir du dossier racine du fichier de définition principal, ces fichiers sont ajoutés en tant que fichiers de référence. Les dossiers nommés « jars », « pyFiles », « files » ou « archives » seront analysés, et le nom des dossiers respecte la casse. Type : booléen (ou Expression avec resultType boolean).

SparkConfig

Propriété de configuration Spark.

SparkJob

Informations de référence sur les travaux Synapse Spark.

State

État de l’activité. Il s’agit d’une propriété facultative et, si elle n’est pas fournie, l’état est Actif par défaut.

(Hérité de Activity)
TargetBigDataPool

Nom du pool Big Data qui sera utilisé pour exécuter le travail de traitement par lots Spark, qui remplacera le « targetBigDataPool » de la définition de travail Spark que vous fournissez.

TargetSparkConfiguration

Configuration Spark du travail Spark.

UserProperties

Propriétés utilisateur de l’activité.

(Hérité de Activity)

S’applique à