AI Studio ou Azure Machine Learning : quelle expérience dois-je choisir ?
Cet article vous aide à comprendre quand utiliser Azure AI Studio et Azure Machine Learning. Bien qu’il y ait un certain chevauchement dans les fonctionnalités de chaque expérience, cet article fournit une vue d’ensemble de leurs fonctionnalités et des scénarios de développement les mieux adaptés à chaque plateforme.
Azure AI Studio
Azure AI Studio est une plateforme unifiée pour le développement et le déploiement d’applications IA génératives et d’API Azure AI de manière responsable. Il comprend un ensemble complet de fonctionnalités d’IA, d’interface utilisateur simplifiée et d’expériences code-first, offrant un magasin unique pour créer, tester, déployer et gérer des solutions intelligentes.
AI Studio vous convient-il ?
Azure AI Studio est conçu pour aider les développeurs et les scientifiques des données à créer et déployer efficacement des applications d’IA génératives avec la puissance des offres d’IA étendues d’Azure.
Fonctionnalités clés d’Azure AI Studio
- Créer ensemble en tant qu’équipe. Votre hub AI Studio fournit une sécurité de niveau entreprise et un environnement collaboratif allant des ressources et des connexions partagées aux modèles pré-entraînés, aux données et au calcul.
- Organiser votre travail Votre projet AI Studio vous aide à enregistrer l’état, ce qui vous permet d’effectuer des itérations pour passer de la première idée au premier prototype, puis au premier déploiement de production. Invitez également facilement d’autres personnes à collaborer au long de ce parcours.
- Utilisez votre plateforme de développement et vos frameworks préférés, notamment GitHub, Visual Studio Code, LangChain, Semantic Kernel, AutoGen, etc.
- Découvrez et référencez à partir de plus de 1 600 modèles.
- Provisionnez des modèles en tant que service (MaaS) via des API serverless et hébergez un réglage précis.
- Incorporez plusieurs modèles, sources de données et modalités.
- Créez la génération augmentée de récupération (RAG) à l’aide de vos données d’entreprise protégées sans avoir besoin de réglage précis.
- Orchestrez et gérez l’ingénierie des invites et les flux de grand modèle de langage (LLM).
- Concevez et protégez les applications et les API avec des filtres et des contrôles configurables.
- Évaluez les réponses de modèle avec des flux d’évaluation intégrés et personnalisés.
- Déployez des innovations IA sur l’infrastructure managée d’Azure avec une analyse et une gouvernance continues entre les environnements.
- Surveillez en permanence la sécurité, la qualité et la consommation de jetons en production des applications déployées.
Azure Machine Learning Studio
Azure Machine Learning Studio est une plateforme de Machine Learning managée de bout en bout pour la création, le réglage, le déploiement et l’exploitation de modèles Azure Machine Learning, de manière responsable à grande échelle.
Azure Machine Learning Studio vous convient-il ?
Azure Machine Learning est conçu pour les ingénieurs Machine Learning et les scientifiques des données.
Fonctionnalités clés d’Azure Machine Learning Studio
- Créez et entraînez un modèle Azure Machine Learning avec n’importe quel type de calcul, y compris Spark et les GPU pour les charges de travail IA de grande taille à l’échelle du cloud.
- Exécutez Azure Machine Learning automatisé (AutoML) et une interface utilisateur glisser-déplacer pour Azure Machine Learning low-code.
- Implémentez des Azure Machine LearningOps de bout en bout et des pipelines Azure Machine Learning reproductibles.
- Utilisez le tableau de bord d’IA responsable pour la détection de biais et l’analyse des erreurs.
- Orchestrez et gérez l’ingénierie des invites et les flux de modèles de langage (LLM).
- Déployez des modèles avec des points de terminaison d’API REST, une inférence en temps réel et une inférence par lots.
Comparaison détaillée des fonctionnalités
Le tableau suivant compare les principales fonctionnalités d’Azure AI Studio et d’Azure Machine Learning Studio :
Catégorie | Fonctionnalité | Azure AI Studio | Azure Machine Learning Studio |
---|---|---|---|
Stockage des données | Solution de stockage | Non | Oui, avec l’intégration du système de fichiers cloud, l’intégration de OneLake à Fabric et des comptes de stockage Azure. |
Préparation des données | Intégration de données au stockage | Oui, avec stockage Blob, Onelake, Azure Data Lake Storage (ADLS) pris en charge dans l’index. | Oui, par le biais de la copie et du montage avec des comptes de stockage Azure. |
Data wrangling | Non | Oui, dans le code. | |
Étiquetage des données | Non | Oui, avec l’identification d’objet, la segmentation d’instance, la segmentation sémantique, la reconnaissance d’entité nommée (NER), l’intégration avec les outils et services d’étiquetage 3P. | |
Magasin de fonctionnalités | Non | Oui | |
Traçabilité et étiquettes de données | Non | Oui | |
Charges de travail Spark | Non | Oui | |
Charges de travail d’orchestration des données | Non | Non, bien que les pipelines Spark et Azure Machine Learning attachés soient disponibles. | |
Développement et formation de modèles | Outil code-first pour le scientifique des données. | Oui, avec VS Code. | Oui, avec notebooks intégrés, Jupyter, VS Code, R Studio. |
Langages | Python uniquement. | Python (expérience complète), R, Scala, Java (expérience limitée). | |
Suivre, surveiller et évaluer des expériences | Oui, mais uniquement pour les exécutions de flux d’invite. | Oui, pour tous les types d’exécution. | |
Outils de création de pipeline ML | Non | Oui, avec le concepteur, l’outil de création visuelle et SDK/CLI/API. | |
AutoML | Non | Oui, pour la régression, la classification, la prévision des séries chronologiques, la vision par ordinateur et le traitement du langage naturel (NLP). | |
Cibles de calcul pour l’entraînement | Serverless uniquement pour les instances de calcul MaaS et le runtime serverless pour le flux d’invite. | Clusters Spark, clusters Azure Machine Learning (MPI) et Azure Arc serverless. | |
Entraîner et affiner les grands modèles de langages (LLM) et les modèles de base | Limité au catalogue de modèles. | Oui, avec l’entraînement distribué basé sur MPI et le catalogue de modèles. | |
Évaluer et déboguer des modèles Azure Machine Learning pour l’impartialité et l’explicabilité. | Non | Oui, avec le tableau de bord d’IA responsable intégré. | |
IA générative/modèles LLM | Catalogue LLM | Oui, via le catalogue de modèles, les LLM d’Azure OpenAI, Hugging Face et Meta. | Oui, via le catalogue de modèles, les LLM d’Azure OpenAI, Hugging Face et Meta. |
RAG (chat d’entreprise) | Oui | Oui, via le flux d’invite. | |
Filtrage de contenu LLM | Oui, par le biais de la sécurité du contenu d’IA. | Oui, par le biais de la sécurité du contenu d’IA. | |
Flux rapide | Oui | Oui | |
Leaderboard/benchmarks | Oui | Non | |
Exemples d’invites | Oui | Non | |
Flux de travail LLM/LLMOps/MLOps | Terrain de jeu | Oui | Non |
Expérimenter et tester les invites | Oui, via le terrain de jeu, la carte de modèle et le flux d’invite. | Oui, via la carte de modèle et le flux d’invite. | |
Développer un flux de travail | Oui, via le flux d’invite, l’intégration à LangChain et au noyau sémantique. | Oui, via le flux d’invite, l’intégration à LangChain et au noyau sémantique. | |
Déployer un flux de travail en tant que point de terminaison | Oui, via le flux d’invite. | Oui, via le flux d’invite. | |
Contrôle de version de flux | Oui, via le flux d’invite. | Oui, via le flux d’invite. | |
Évaluation intégrée | Oui, via le flux d’invite. | Oui, via le flux d’invite. | |
Intégration Git | Oui | Oui | |
CI/CD | Oui, par le biais d’expériences code-first dans le flux d’invite, intégrées à Azure DevOps et GitHub. | Oui, par le biais d’expériences code-first dans le flux d’invite, intégrées à Azure DevOps et GitHub. | |
Registre de modèles | Non | Oui, via MIFlow et les registres. | |
Registre de modèles d’organisation | Non | Oui, par le biais de registres. | |
Déploiement de modèle | Options de déploiement pour le service en temps réel | Modèles en tant que service (MaaS) via des points de terminaison en ligne pour le catalogue MaaP. | Non |
Options de déploiement pour le service par lots | Non | Points de terminaison de lots, prise en charge d’Azure Arc managée et non managée. | |
Sécurité d’entreprise | AI Hub | Oui, gérez et régissez les ressources d’IA. | Oui, pour Azure Machine Learning et les LLM classiques. |
Réseau privé | Oui | Oui | |
Prévention contre la perte de données | Oui | Oui | |
Classification des données | Non | Oui, via Purview. |