Compartilhar via


estrutura DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC (directml.h)

Calcula gradientes de backpropagation para uma reLU (unidade linear retificada). Esse operador executa a computação em termos de elemento a seguir.

X = InputTensor
dY = InputGradientTensor

OutputGradientTensor = (X > 0 ? dY : 0)

O operador de passagem de encaminhamento correspondente é DML_ACTIVATION_RELU_OPERATOR_DESC.

Sintaxe

struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *InputGradientTensor;
  const DML_TENSOR_DESC *OutputGradientTensor;
};

Membros

InputTensor

Tipo: const DML_TENSOR_DESC*

O tensor de entrada (recurso). Normalmente, essa é a mesma entrada que foi fornecida durante o passe para frente (consulte DML_ACTIVATION_RELU_OPERATOR_DESC).

InputGradientTensor

Tipo: const DML_TENSOR_DESC*

O tensor de gradiente de entrada. Normalmente, isso é obtido da saída de backpropagation de uma camada anterior. Os Tamanhos e o DataType desse tensor devem corresponder exatamente aos do InputTensor.

OutputGradientTensor

Requisitos

Requisito Valor
Cliente mínimo com suporte Windows 10 Build 20348
Servidor mínimo com suporte Windows 10 Build 20348
Cabeçalho directml.h

Confira também

DML_ACTIVATION_RELU_OPERATOR_DESC