Metodologia de design para cargas de trabalho de IA no Azure
A criação de cargas de trabalho de IA envolve a integração de código e dados para substituir o comportamento determinístico e habilitar tarefas como previsão, classificação e outras metas funcionais. A arquitetura da carga de trabalho de IA geralmente é complexa e deve ser projetada dentro de restrições de negócios. O Azure Well-Architected Framework fornece uma base sólida para a excelência arquitetônica, mas você também precisa considerar os princípios de design específicos da IA.
Este artigo apresenta uma metodologia de design sugerida centrada nesses princípios de IA, que orientam sistematicamente o design e a otimização de soluções. Quando você estiver incerto na tomada de decisões, consulte essa metodologia para enfatizar a direção do design por meio de princípios de IA de alto nível.
Se você estiver projetando uma capacidade ou introduzindo uma melhoria, avalie a mudança da perspectiva da metodologia. A experiência segura do usuário é afetada? É flexível o suficiente para se adaptar a inovações futuras? Isso interromperá o fluxo de experimentação? Outro benefício da metodologia é a colaboração com proprietários de produtos e partes interessadas para justificar decisões técnicas.
Design com uma mentalidade experimental
Quando você projeta com uma mentalidade experimental, o objetivo é alcançar a relevância por meio de processos iterativos e controlados estatisticamente com base em casos de uso do mundo real.
A experimentação em IA envolve ajustes contínuos com resultados mensuráveis em relação às metas de qualidade após cada iteração. Um loop de experimentação é necessário durante a avaliação inicial do modelo e o refinamento contínuo. O loop interno refina o poder preditivo do modelo no ambiente de desenvolvimento. O loop externo monitora o uso em produção e pode acionar refinamentos adicionais ou preparação adicional de dados. Ambos os loops dependem de monitoramento e avaliação contínuos para identificar melhorias.
Nem todo experimento é bem-sucedido. Considere os piores cenários e tenha planos de contingência para experimentos fracassados.
Projete com responsabilidade
Quando os usuários interagem com seu sistema de IA, eles confiam em sua funcionalidade ética, apesar da lógica opaca dos modelos de IA. Essa confiança responsabiliza você por projetar o sistema para evitar comportamentos antiéticos, como manipulação, toxicidade de conteúdo, violação de IP e respostas fabricadas.
Insira a IA responsável nas operações de sistemas e na cultura da equipe. As práticas devem se estender por todo o ciclo de vida da interação do usuário. Ele começa com a intenção inicial do usuário de usar o sistema, continua por meio de sessões e inclui até mesmo interrupções causadas por erros do sistema.
A moderação de conteúdo é uma estratégia fundamental no design responsável da IA generativa, em que solicitações e respostas são avaliadas em tempo real para garantir a segurança e a adequação. Como parte dos loops de experimentação, esforce-se para tornar os algoritmos justos e inclusivos para minimizar o viés. O viés pode ser introduzido no sistema por meio de sessões reais ou durante a coleta de feedback.
O gerenciamento de dados éticos é central para o design responsável. Ele envolve decisões cuidadosas sobre quando usar ou evitar depender de dados do usuário. Os usuários confiam em você para garantir que qualquer informação pessoal seja removida do sistema ou retida apenas com o consentimento deles. Se a retenção for inevitável, verifique se os dados estão protegidos com tecnologia confiável para privacidade e segurança.
Design para explicabilidade
Os resultados do modelo de IA devem ser explicados. Eles exigem justificação e rastreabilidade das origens dos dados, processos de inferência e a trajetória dos dados da fonte até a camada de serviço. Na IA discriminativa, você pode justificar suas decisões a cada etapa, mas a explicação em modelos generativos pode ser complexa. É essencial documentar o processo de tomada de decisão, tanto manualmente quanto por meio de recursos técnicos.
O objetivo desse princípio é garantir a transparência e a responsabilidade do sistema para obter a confiança do usuário.
Fique à frente da deterioração do modelo
A decadência do modelo é um desafio exclusivo na IA que afeta significativamente as decisões de design. A qualidade das saídas do modelo de IA pode se deteriorar ao longo do tempo sem alterações no código, às vezes até mesmo repentinamente, devido a alterações em dados ou fatores externos.
A deterioração afeta vários aspectos do sistema e inclui:
- Velocidade de ingestão de dados.
- Qualidade dos dados.
- Necessidades de monitoramento.
- Processos de avaliação.
- Tempos de reação para corrigir problemas.
Recomendamos a detecção antecipada por meio de uma combinação de processos automatizados para monitoramento contínuo e avaliação de modelo. O feedback do usuário também é um método eficaz para identificar a deterioração do modelo.
Independentemente dos sinais usados para identificar o decaimento do modelo, a equipe de operações deve envolver cientistas de dados para pesquisar e resolver prontamente possíveis problemas de decaimento.
Design para adaptabilidade
O avanço tecnológico e a adoção da IA estão avançando em um ritmo rápido. Lembre-se de que o que você cria hoje pode se tornar obsoleto rapidamente e afetar suas decisões e processos de design.
Esse princípio enfatiza a necessidade de agilidade e flexibilidade e o reconhecimento de que alguns componentes podem ter uma vida útil curta. Adote uma abordagem de pausar e pensar, em que pesquisas minuciosas sobre descoberta de modelos, bibliotecas e estruturas de programação e tecnologias de processamento são fundamentais.
Próxima etapa
Saiba mais sobre os princípios de design para criar e operar cargas de trabalho de IA no Azure.