Partager via


DML_ACTIVATION_LEAKY_RELU_OPERATOR_DESC structure (directml.h)

Exécute une fonction d’activation d’unité linéaire rectifiée (ReLU) fuite sur chaque élément dans InputTensor, en plaçant le résultat dans l’élément correspondant de OutputTensor.

f(x) = x,         if x >= 0
       Alpha * x, otherwise

Cet opérateur prend en charge l’exécution sur place, ce qui signifie que le tenseur de sortie est autorisé à alias InputTensor pendant la liaison.

Syntaxe

struct DML_ACTIVATION_LEAKY_RELU_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
  FLOAT                 Alpha;
};

Membres

InputTensor

Type : const DML_TENSOR_DESC*

Tenseur d’entrée à partir duquel lire.

OutputTensor

Type : const DML_TENSOR_DESC*

Tenseur de sortie dans lequel écrire les résultats.

Alpha

Type : FLOAT

Coefficient alpha. Une valeur par défaut classique pour cette valeur est 0,01.

Spécifications

   
En-tête directml.h

Voir aussi

DML_ACTIVATION_RELU_OPERATOR_DESC

Disponibilité

Cet opérateur a été introduit dans DML_FEATURE_LEVEL_1_0.

Contraintes tensoriels

InputTensor et OutputTensor doivent avoir les mêmes DataType, DimensionCount et Sizes.

Prise en charge des tenseurs

DML_FEATURE_LEVEL_3_0 et versions ultérieures

Tenseur Type Nombre de dimensions pris en charge Types de données pris en charge
InputTensor Entrée 1 à 8 FLOAT32, FLOAT16
OutputTensor Output 1 à 8 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_2_0 et versions ultérieures

Tenseur Type Nombre de dimensions pris en charge Types de données pris en charge
InputTensor Entrée 4 à 5 FLOAT32, FLOAT16
OutputTensor Output 4 à 5 FLOAT32, FLOAT16

DML_FEATURE_LEVEL_1_0 et versions ultérieures

Tenseur Type Nombre de dimensions pris en charge Types de données pris en charge
InputTensor Entrée 4 FLOAT32, FLOAT16
OutputTensor Output 4 FLOAT32, FLOAT16