estrutura DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC (directml.h)
Calcula gradientes de backpropagation para uma reLU (unidade linear retificada). Esse operador executa a computação em termos de elemento a seguir.
X = InputTensor
dY = InputGradientTensor
OutputGradientTensor = (X > 0 ? dY : 0)
O operador de passagem de encaminhamento correspondente é DML_ACTIVATION_RELU_OPERATOR_DESC.
Sintaxe
struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *InputGradientTensor;
const DML_TENSOR_DESC *OutputGradientTensor;
};
Membros
InputTensor
Tipo: const DML_TENSOR_DESC*
O tensor de entrada (recurso). Normalmente, essa é a mesma entrada que foi fornecida durante o passe para frente (consulte DML_ACTIVATION_RELU_OPERATOR_DESC).
InputGradientTensor
Tipo: const DML_TENSOR_DESC*
O tensor de gradiente de entrada. Normalmente, isso é obtido da saída de backpropagation de uma camada anterior. Os Tamanhos e o DataType desse tensor devem corresponder exatamente aos do InputTensor.
OutputGradientTensor
Requisitos
Requisito | Valor |
---|---|
Cliente mínimo com suporte | Windows 10 Build 20348 |
Servidor mínimo com suporte | Windows 10 Build 20348 |
Cabeçalho | directml.h |