Compartilhar via


Avaliação offline

Importante

A partir de 20 de setembro de 2023, não será mais possível criar novos recursos do Personalizador. O serviço Personalizador será desativado no dia 1º de outubro de 2026.

A avaliação offline é um método que permite testar e avaliar a eficácia do serviço Personalizador sem alterar o código nem afetar a experiência do usuário. A avaliação offline usa os dados do passado, enviados do aplicativo para as APIs de Classificação e Premiação, para comparar o desempenho de diferentes classificações.

A avaliação offline é executada em um intervalo de datas. O intervalo pode terminar na hora atual. O início do intervalo não pode ser maior que o número de dias especificado para a retenção de dados.

A avaliação offline pode ajudar você a responder às seguintes perguntas:

  • Qual é a eficácia das classificações do Personalizador para uma personalização bem-sucedida?
    • Quais são as recompensas médias obtidas pela política de aprendizado de máquina online do Personalizador?
    • Quais as semelhanças entre o Personalizador e a eficácia do que o aplicativo teria feito por padrão?
    • Qual seria a eficácia comparativa de uma escolha aleatória para personalização?
    • Qual seria a eficácia comparativa de diferentes políticas de aprendizado especificadas manualmente?
  • Quais recursos do contexto estão contribuindo mais ou menos para uma personalização bem-sucedida?
  • Quais recursos das ações estão contribuindo mais ou menos para uma personalização bem-sucedida?

Além disso, a avaliação offline pode ser usada para descobrir políticas de aprendizado mais otimizadas que o Personalizador pode usar para melhorar os resultados no futuro.

As avaliações offline não fornecem diretrizes com relação ao percentual de eventos a ser usado para exploração.

Pré-requisitos para avaliação offline

Os seguintes aspectos são considerações importantes para uma avaliação offline representativa:

  • Ter dados suficientes. O mínimo recomendado é, pelo menos, 50.000 eventos.
  • Colete dados de períodos com um comportamento do usuário e um tráfego representativos.

Como descobrir a política de aprendizado otimizada

O Personalizador pode usar o processo de avaliação offline para descobrir uma política de aprendizado mais ideal automaticamente.

Depois de executar a avaliação offline, você poderá ver a eficácia comparativa do Personalizador com essa nova política em comparação com a atual política online. Para que essa política de aprendizado comece a ser aplicada imediatamente no Personalizador, faça o download e o upload dessa política no painel Modelos e Políticas. Você também pode fazer o download dela para análise ou uso futuros.

Políticas atuais incluídas na avaliação:

Configurações de aprendizagem Finalidade
Política online A Política de Aprendizado atual usada no Personalizador
Linha de base Padrão do aplicativo (conforme determinado pela primeira Ação enviada nas Chamadas de classificação)
Política aleatória Um comportamento de Classificação imaginário que sempre retorna uma escolha aleatória de ações daquelas fornecidas.
Políticas personalizadas Políticas de Aprendizado adicionais carregadas ao iniciar a avaliação.
Política Otimizada Se a avaliação tiver sido iniciada com a opção para descobrir uma política otimizada, ela também será comparada, e você poderá baixá-la ou torná-la a política de aprendizado online, substituindo a atual.

Como entender a relevância dos resultados da avaliação offline

Quando você executa uma avaliação offline, é muito importante analisar os limites de confiança dos resultados. Se eles são amplos, isso significa que o aplicativo não recebeu dados suficientes para as estimativas de recompensa serem precisas ou significativas. Conforme o sistema acumula mais dados e você executa avaliações offline por períodos mais longos, os intervalos de confiança ficam mais estreitos.

Como são feitas as avaliações offline

As avaliações offline são feitas usando um método chamado Avaliação Contrafatual.

O Personalizador se baseia na suposição de que o comportamento dos usuários (e, portanto, as recompensas) é impossível de prever retrospectivamente (o Personalizador não pode saber o que teria acontecido se o usuário tivesse visto algo diferente do que viu) e apenas deve aprender com as recompensas medidas.

Este é o processo conceitual usado para avaliações:

[For a given _learning policy), such as the online learning policy, uploaded learning policies, or optimized candidate policies]:
{
    Initialize a virtual instance of Personalizer with that policy and a blank model;

    [For every chronological event in the logs]
    {
        - Perform a Rank call

        - Compare the reward of the results against the logged user behavior.
            - If they match, train the model on the observed reward in the logs.
            - If they don't match, then what the user would have done is unknown, so the event is discarded and not used for training or measurement.

    }

    Add up the rewards and statistics that were predicted, do some aggregation to aid visualizations, and save the results.
}

A avaliação offline usa apenas o comportamento do usuário observado. Esse processo descarta grandes volumes de dados, especialmente se o aplicativo faz chamadas de Classificação com um grande número de ações.

Avaliação de recursos

As avaliações offline podem fornecer informações sobre o peso que recursos específicos contribuem para o contexto ou as ações por recompensas mais altas. As informações são computadas usando a avaliação em relação ao período e aos dados especificados e podem variar com o tempo.

Recomendamos examinar as avaliações de recurso e fazer as seguintes perguntas:

  • Quais outros recursos adicionais o aplicativo ou o sistema pode fornecer semelhantes àqueles que são mais eficazes?
  • Quais recursos podem ser removidos devido à baixa eficácia? Recursos de baixa eficácia adicionam ruído ao aprendizado de máquina.
  • Há algum recurso incluído acidentalmente? Os exemplos são: informações de identificação do usuário, IDs duplicadas etc.
  • Há algum recurso indesejável que não deve ser usado para personalização devido a considerações regulamentares ou referentes a uso responsável? Há algum recurso que pode representar (ou seja, estar correlacionado ou espelhar de maneira aproximada) recursos indesejáveis?

Próximas etapas

Configurar o PersonalizadorExecutar avaliações offline Entender como o Personalizador funciona