Partager via


structure DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC (directml.h)

Calcule les gradients de backpropagation pour une unité linéaire rectifiée (ReLU). Cet opérateur effectue le calcul par élément suivant.

X = InputTensor
dY = InputGradientTensor

OutputGradientTensor = (X > 0 ? dY : 0)

L’opérateur de passage avant correspondant est DML_ACTIVATION_RELU_OPERATOR_DESC.

Syntaxe

struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *InputGradientTensor;
  const DML_TENSOR_DESC *OutputGradientTensor;
};

Membres

InputTensor

Type : const DML_TENSOR_DESC*

Tenseur d’entrée (fonctionnalité). Il s’agit généralement de la même entrée que celle fournie lors de la passe avant (voir DML_ACTIVATION_RELU_OPERATOR_DESC).

InputGradientTensor

Type : const DML_TENSOR_DESC*

Tenseur de dégradé entrant. Cela est généralement obtenu à partir de la sortie de backpropagation d’une couche précédente. Les tailles et le type de données de ce tenseur doivent correspondre exactement à ceux de l’inputTensor.

OutputGradientTensor

Configuration requise

Condition requise Valeur
Client minimal pris en charge Windows 10 Build 20348
Serveur minimal pris en charge Windows 10 Build 20348
En-tête directml.h

Voir aussi

DML_ACTIVATION_RELU_OPERATOR_DESC