structure DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC (directml.h)
Calcule les gradients de backpropagation pour une unité linéaire rectifiée (ReLU). Cet opérateur effectue le calcul par élément suivant.
X = InputTensor
dY = InputGradientTensor
OutputGradientTensor = (X > 0 ? dY : 0)
L’opérateur de passage avant correspondant est DML_ACTIVATION_RELU_OPERATOR_DESC.
Syntaxe
struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *InputGradientTensor;
const DML_TENSOR_DESC *OutputGradientTensor;
};
Membres
InputTensor
Type : const DML_TENSOR_DESC*
Tenseur d’entrée (fonctionnalité). Il s’agit généralement de la même entrée que celle fournie lors de la passe avant (voir DML_ACTIVATION_RELU_OPERATOR_DESC).
InputGradientTensor
Type : const DML_TENSOR_DESC*
Tenseur de dégradé entrant. Cela est généralement obtenu à partir de la sortie de backpropagation d’une couche précédente. Les tailles et le type de données de ce tenseur doivent correspondre exactement à ceux de l’inputTensor.
OutputGradientTensor
Configuration requise
Condition requise | Valeur |
---|---|
Client minimal pris en charge | Windows 10 Build 20348 |
Serveur minimal pris en charge | Windows 10 Build 20348 |
En-tête | directml.h |