Nouveautés de Recherche Azure AI
Recherche cognitive Azure est désormais Azure AI Search. Découvrez les dernières mises à jour de la fonctionnalité, des documents et des exemples de Recherche Azure AI.
Remarque
Les fonctionnalités en préversion sont annoncés ici, mais nous maintenons également une liste des fonctionnalités en préversion afin que vous puissiez les trouver en un seul endroit.
Octobre 2024
Élément | Type | Description |
---|---|---|
Réduire les exigences de dimension pour les modèles d’incorporation de texte entraînés par MRL sur Azure OpenAI | Fonctionnalité | Les modèles Text-embedding-3-small et Text-embedding-3-large sont entraînés à l’aide de MRL (Matryoshka Representation Learning). Cela vous permet de tronquer les vecteurs d’incorporation en moins de dimensions et d’ajuster l’équilibre entre l’utilisation de la taille de l’index vectoriel et la qualité de récupération. Une nouvelle truncationDimension dans 2024-09-01-preview permet d’accéder à la compression MRL dans les modèles d’incorporation de texte. Cela peut uniquement être configuré pour les nouveaux champs vectoriels. |
Décompressez @search.score pour afficher les sous-scores dans les résultats de recherche hybride |
Fonctionnalité | Vous pouvez examiner les résultats classés RRF (Réciproque Rank Fusion) en consultant les sous-scores de requête individuels du résultat final fusionné et noté. Une nouvelle propriété debug permet de décompresser le score de recherche. QueryResultDocumentSubscores , QueryResultDocumentRerankerInput et QueryResultDocumentSemanticField fournissent les détails supplémentaires. Ces définitions sont disponibles dans 2024-09-01-preview. |
Filtres cibles dans une recherche hybride pour les requêtes vectorielles uniquement | Fonctionnalité | Un filtre sur une requête hybride implique toutes les sous-requêtes sur la demande, quel que soit le type. Vous pouvez remplacer le filtre global pour étendre le filtre à une sous-requête spécifique. Le nouveau paramètre filterOverride est disponible sur les requêtes hybrides à l’aide de 2024-09-01-preview. |
Compétence Fractionnement de texte (segmentation de jetons) | IA appliquée (compétences) | Cette compétence comporte de nouveaux paramètres qui améliorent la segmentation des données pour les modèles d’incorporation. Un nouveau paramètre unit vous permet de spécifier la segmentation des jetons. Il est désormais possible de segmenter par longueur de jeton, en définissant la longueur sur une valeur adaptée à votre modèle d’intégration. Vous pouvez également spécifier le générateur de jetons et tous les jetons qui ne doivent pas être fractionnés pendant la segmentation des données. Les nouvelles définitions de paramètre unit et de sous-score de requête se trouvent dans 2024-09-01-preview. |
2024-09-01-preview | API | Version préliminaire des API REST pour les dimensions tronquées dans les modèles de text-embedding-3, le filtrage vectoriel ciblé pour les requêtes hybrides, les détails des sous-scores RRF pour le débogage, et la segmentation des jetons pour la compétence Fractionnement de texte. |
Août 2024
Élément | Type | Description |
---|---|---|
Amélioration de la session de débogage | feature | Il y a deux améliorations importantes. Premièrement, vous pouvez maintenant déboguer des charges de travail de vectorisation intégrée et de segmentation des données. Deuxièmement, les sessions de débogage ont été repensées pour une présentation plus simple des compétences et des mappages. Vous pouvez sélectionner un objet dans le flux et afficher ou modifier ses détails dans un panneau latéral. La disposition en onglets précédente est entièrement remplacée par des informations plus contextuelles dans la page. |
2024-07-01 | API | Version stable des API REST pour les types de données vectorielles en disponibilité générale, la compression vectorielle et la vectorisation intégrée pendant l’indexation et les requêtes. |
Vectorisation intégrée | Fonctionnalité | Annonce de disponibilité générale. Regroupement et intégration des données en fonction des compétences lors de l'indexation. |
Vectoriseurs | Fonctionnalité | Annonce de disponibilité générale. Conversion texte en vecteur lors de l'exécution de la requête. Le vectoriseur Azure OpenAI et le vectoriseur d’API web personnalisé sont en disponibilité générale. |
Compétence AzureOpenAIEmbedding | Fonctionnalité | Annonce de disponibilité générale. Un type de compétence qui appelle le modèle d’incorporation Azure OpenAI pour générer des incorporations lors de l’indexation. |
Projections d’index | Fonctionnalité | Annonce de disponibilité générale. Composant d’une définition d’ensemble de compétences qui définit la forme d’un index secondaire, prenant en charge un modèle d’index un-à-plusieurs, où le contenu d’un pipeline d’enrichissement peut cibler plusieurs index. |
Quantification binaire et scalaire | Fonctionnalité | Annonce de disponibilité générale. Compressez la taille de l’index vectoriel en mémoire et sur disque en utilisant la quantification intégrée. |
Types de données restreints | Fonctionnalité | Annonce de disponibilité générale. Attribuez un type de données plus petit aux champs vectoriels, en supposant que les données entrantes sont de ce type de données. |
Assistant Importation et vectorisation des données | Portail Azure | Annonce de disponibilité générale. Un Assistant qui crée un pipeline d’indexation complet qui inclut la segmentation et la vectorisation des données. L’Assistant crée tous les objets et configurations nécessaires. Cette version ajoute la prise en charge de l’Assistant pour Azure Data Lake dans Stockage Azure. |
propriété stockée | Fonctionnalité | Annonce de disponibilité générale. Booléen qui réduit le stockage des index vectoriels en ne stockant pas les vecteurs récupérables. |
Propriété vectorQueries.Weight | Fonctionnalité | Annonce de disponibilité générale. Spécifiez le poids relatif de chaque requête vectorielle dans une opération de recherche. |
Juillet 2024
Élément | Type | Description |
---|---|---|
Échanger avec vos données | Accélérateur | Un accélérateur de solution pour le modèle RAG s’exécutant dans Azure, à l’aide d’Azure AI Search pour la récupération et les modèles de langage volumineux Azure OpenAI pour la création d’expériences de recherche conversationnelle. Le code avec des exemples de données est disponible pour des scénarios de cas d’usage tels que le conseiller financier et l’examen et le résumé de contrats. |
Exploration des connaissances conversationnelles | Accélérateur | Un accélérateur de solution basé sur les services Azure AI Search, Azure Speech et Azure OpenAI qui permettent aux clients d’extraire des insights exploitables à partir de conversations post-centre de contacts. |
Créer votre propre copilote | Accélérateur | Créez votre propre solution copilote personnalisée qui permet à Client Advisor d’exploiter la puissance de l’IA générative sur les données structurées et non structurées. Aider nos clients à optimiser les tâches quotidiennes et à favoriser de meilleures interactions avec d’autres clients. |
Juin 2024
Élément | Type | Description |
---|---|---|
Recherche d’images dans le portail Azure | Fonctionnalité | L’Explorateur de recherche prend désormais en charge la recherche d’images. Dans un index vectoriel qui a du contenu d’images vectorisées, vous pouvez déposer des images dans l’Explorateur de recherche pour rechercher une correspondance. |
Mai 2024
Élément | Type | Description |
---|---|---|
Capacité plus élevée et quota de vecteurs plus important à chaque niveau (même taux de facturation) | Infrastructure | Pour la plupart des régions, les tailles de partition sont maintenant supérieures pour Standard 2 (S2), Standard 3 (S3) et Standard 3 Haute densité (S3 HD) pour les services créés après le 3 avril 2024. Pour obtenir les partitions plus volumineuses, créez un service dans une région qui fournit une infrastructure plus récente. Les niveaux à stockage optimisé (L1 et L2) ont également plus de capacité. Les clients L1 et L2 doivent créer un service pour bénéficier de la capacité supérieure. Il n’y a pas de mise à niveau sur place pour l’instant. Une capacité supplémentaire est désormais disponible dans d’autres régions: Allemagne Nord, Allemagne Centre-Ouest, Afrique du Sud Nord, Suisse Ouestet Azure Government (Texas, Arizona et Virginie). |
intégration à OneLake (préversion) | Fonctionnalité | Nouvel indexeur pour les fichiers OneLake et les raccourcis OneLake. Si vous utilisez Microsoft Fabric et OneLake pour l’accès aux données à Amazon Web Services (AWS) et aux sources de données Google, utilisez cet indexeur pour importer des données externes dans un index de recherche. Cet indexeur est disponible via le portail Azure, les API REST 2024-05-01-préversionet les packages bêta du kit de développement logiciel (SDK) Azure. |
Pertinence du vecteur pertinence des requêtes hybrides |
Fonctionnalité | Quatre améliorations permettent d’accroître la pertinence du vecteur et de la recherche hybride. Tout d’abord, vous pouvez maintenant définir des seuils sur les résultats de la recherche vectorielle pour exclure les résultats à faible score. Deuxièmement, les modifications apportées à l’architecture de requête appliquent des profils de scoring à la fin du pipeline de requête pour chaque type de requête. L’amélioration des documents est un profil de scoring courant et fonctionne désormais comme prévu sur les requêtes vectorielles et hybrides. Troisièmement, vous pouvez définir MaxTextRecallSize et countAndFacetMode dans des requêtes hybrides pour contrôler la quantité de résultats de recherche classés BM25 qui circulent dans le modèle de classement hybride. Quatrièmement, pour la recherche vectorielle et hybride, vous pouvez pondérer une requête vectorielle pour avoir un renforcement ou diminuer son importance dans une requête multiple. |
Prise en charge des vecteurs binaires | Fonctionnalité | Collection(Edm.Byte) est un nouveau type de données pris en charge. Ce type de données ouvre l’intégration avec les modèles d’incorporation binaire Cohere v3 et de quantification binaire personnalisée. Les types de données étroits réduisent le coût des jeux de données vectoriels volumineux. Pour plus d’informations, consultez Index des données binaires pour la recherche vectorielle. |
Compétence d’incorporations multimodales Azure AI Vision (préversion) | Compétence | Nouvelle compétence qui est liée à l’API d’incorporations multimodales d’Azure AI Vision. Vous pouvez générer des incorporations pour du texte ou des images pendant l’indexation. Cette compétence est disponible via le portail Azure et l’API REST 2024-05-01-préversion. |
Vectoriseur Azure AI Vision (préversion) | Vectoriseur | Un nouveau vectoriseur se connecte à une ressource Azure AI Vision à l’aide de l’API d’incorporations multimodales pour générer des incorporations au moment de la requête. Ce vectoriseur est disponible via le portail Azure et l’API REST 2024-05-01-préversion. |
Vectoriseur de catalogue de modèles Azure AI Studio (préversion) | Vectoriseur | Un nouveau vectoriseur se connecte à un modèle d’incorporation déployé à partir du catalogue de modèles Azure AI Studio. Ce vectoriseur est disponible via le portail Azure et l’API REST 2024-05-01-préversion. Comment implémenter la vectorisation intégrée en utilisant des modèles d’Azure AI Studio. |
La compétence AzureOpenAIEmbedding (préversion) prend en charge d’autres modèles sur Azure OpenAI | Compétence | Prend désormais en charge text-embedding-3-large et text-embedding-3-small, ainsi que text-embedding-ada-002 depuis la mise à jour précédente. Les nouvelles propriétés dimensions et modelName permettent de spécifier les différents modèles d’incorporation sur Azure OpenAI. Auparavant, les limites de dimensions étaient fixes à 1 536 dimensions, applicables uniquement à text-embedding-ada-002. Cette compétence mise à jour est disponible par le Portail Azure et l’API REST 2024-05-01-préversion. |
Mises à jour du portail Azure | Portail | L’Assistant Importation et vectorisation des données prend désormais en charge les indexeurs OneLake comme source de données. Pour les incorporations, il prend également en charge les connexions à Azure AI Vision multimodale, au catalogue de modèles Azure AI Studio et à d’autres modèles incorporés sur Azure OpenAI. Lorsque vous ajoutez un champ à un index, vous pouvez choisir un type de données binaires. L’Explorateur de recherche a désormais pour version par défaut 2024-05-01-preview et prend en charge les nouvelles fonctionnalités en préversion pour les requêtes vectorielles et hybrides. |
2024-05-01-preview | API | La nouvelle version preview des API REST de recherche propose de nouvelles compétences et de nouveaux vecteurs, un nouveau type de données binaires, un indexeur de fichiers OneLake et de nouveaux paramètres de requête pour des résultats plus pertinents. Consultez Mettre à niveau les API REST si vous avez du code existant écrit sur la préversion 2023-07-01 et que vous devez migrer vers cette version. |
Packages bêta du kit de développement logiciel (SDK) Azure | API | Passez en revue les journaux de modification des packages bêta du kit de développement logiciel (SDK) Azure suivants pour la prise en charge des nouvelles fonctionnalités : SDK Azure pour Python, SDK Azure pour .NET, SDK Azure pour Java |
Exemples de code Python | Exemples | De nouveaux exemples complets illustrent l’intégration à Cohere Embed v3, l’intégration à OneLake et aux plateformes de données cloud sur Google et AWS et l’intégration aux API multimodales Azure AI Vision. |
Avril 2024
Élément | Type | Description |
---|---|---|
Correctif de sécurité ciblant la divulgation d’informations | API | Les réponses GET ne retournent plus de chaînes de connexion ou de clés. S’applique à l’ensemble de compétences GET, à l’indexeur GET et à l’indexeur GET. Cette modification permet de protéger vos ressources Azure intégrées à la Recherche IA contre un accès non autorisé. |
Plus de stockage sur les niveaux Essentiel et Standard | Infrastructure | Le niveau Essentiel prend désormais en charge jusqu’à trois partitions et trois réplicas. Les niveaux Essentiel et Standard (S1, S2, S3) possèdent beaucoup plus de stockage par partition, au même taux de facturation par partition. Toute capacité supplémentaire est soumise à une disponibilité régionale et s’applique aux nouveaux services de recherche créés après le 3 avril 2024. Il n’y a actuellement pas de mise à niveau sur place, vous devez alors créer un service de recherche pour obtenir du stockage supplémentaire. |
Plus de quota pour les vecteurs | Infrastructure | Les quotas vectoriels sont également plus élevés sur les nouveaux services créés après le 3 avril 2024 dans les régions sélectionnées. |
La quantification vectorielle, les types de données vectorielles restreints et une nouvelle propriété stored (préversion) |
Fonctionnalité | Collectivement, ces trois fonctionnalités ajoutent des options de compression vectorielle et de stockage plus intelligentes. Premièrement, pour réduire la taille de l’index vectoriel en mémoire et sur le disque, utilisez la quantification scalaire. Deuxièmement, les types de données restreints réduisent le stockage par champ en stockant des valeurs inférieures. Troisièmement, vous pouvez utiliser stored pour refuser le stockage de la copie supplémentaire d’un vecteur utilisé uniquement pour les résultats de la recherche. Si vous n’avez pas besoin de vecteurs dans une réponse de requête, vous pouvez définir stored sur false pour économiser de l’espace. |
API REST Recherche 2024-03-01 - Préversion | API | Nouvelle version préliminaire des API REST de recherche pour les nouveaux types de données, les propriétés de compression vectorielle et les options de stockage vectoriel. |
API REST Gestion 2024-03-01 - Préversion | API | Nouvelle version préliminaire des API REST de gestion pour les opérations de plan de contrôle. |
Annonce de dépréciation (préversion) : 2023-07-01 | API | Dépréciation prévue le 8 avril 2024. La prise en charge cesse le 8 juillet 2024. Il s'agissait de la première API REST qui offrait un support de recherche vectorielle. Les versions plus récentes de l'API ont une configuration vectorielle différente. Vous devez migrer vers une version plus récente dès que possible. |
Février 2024
Élément | Type | Description |
---|---|---|
Nouvelles limites de dimension | Fonctionnalité | Pour les champs vectoriels, les limites de dimension maximales sont maintenant 3072 , au lieu de 2048 . |
Annonces de 2023
Month | Type | Annonce |
---|---|---|
Novembre | Fonctionnalité | Recherche vectorielle, en disponibilité générale. La restriction antérieure concernant les clés gérées par le client (CMK) est maintenant levée. Le préfiltrage et l’algorithme de recherche des K plus proches voisins (KNN, K-Nearest Neighbors) exhaustif sont aussi désormais en disponibilité générale. |
Novembre | Fonctionnalité | Classeur sémantique, généralement disponible |
Novembre | Fonctionnalité | Vectorisation intégrée (préversion) ajoute le fractionnement des données et les conversions texte-vecteur pendant l’indexation ainsi que les conversions texte-vecteur à l’exécution de la requête. |
Novembre | Fonctionnalité | Assistant Importation et vectorisation des données (préversion) automatise la segmentation et la vectorisation des données. Il cible l’API REST 2023-10-01-Preview. |
Novembre | Fonctionnalité | Projections d’index (préversion) définit la forme d’un index secondaire, utilisé pour un modèle d’index un-à-plusieurs, où le contenu d’un pipeline d’enrichissement peut cibler plusieurs index. |
Novembre | API | 01-11-2023 API REST Azure AI Recherche est une version stable de l’API REST Azure AI Recherche pour la recherche vectorielle et le classement sémantique. Consultez Mettre à niveau les API REST pour connaître les étapes de migration vers les fonctionnalités en disponibilité générale. |
Novembre | API | API REST de gestion 2023-11-01 ajoute des API qui activent ou désactivent le classeur sémantique. |
Novembre | Compétence | Compétence d’incorporations Azure OpenAI (préversion)Se connecte à un modèle d’incorporation déployé sur votre ressource Azure OpenAI pour générer des incorporations pendant l’exécution du jeu de compétences. |
Novembre | Compétence | Compétence cognitive Fractionnement de texte (préversion)mise à jour le 01-10-2023 Préversion pour prendre en charge le fractionnement natif des données. |
Novembre | Vidéo | Comment la recherche vectorielle et le classement sémantique améliorent vos invites GPT explique comment la recherche hybride vous donne des données de base optimales pour générer des réponses IA utiles et permet une recherche à la fois sur des concepts et des mots-clés. |
Novembre | Exemple | Contrôle d’accès en fonction du rôle (RBAC) dans les application d’IA génératives explique comment utiliser Microsoft Entra ID et l’API Microsoft Graph pour déployer des autorisations utilisateur granulaires sur du contenu fragmenté dans votre index. |
Octobre | Exemple | Accélérateur de solution « Échanger avec vos données ». Modèle RAG de bout en bout qui utilise Recherche Azure AI comme récupérateur. Il fournit l’indexation, la segmentation des données et l’orchestration. |
Octobre | Fonctionnalité | Voisins les plus proches de K exhaustives (KNN) est un nouvel algorithme de scoring pour la recherche de similarités dans l’espace vectoriel. Disponible dans l’API REST 2023-10-01-Preview uniquement. |
Octobre | Fonctionnalité | Pré-filtres dans la recherche vectorielle évalue les critères de filtre avant l’exécution de la requête, ce qui réduit la quantité de contenu à rechercher. Disponible uniquement dans l’API REST 2023-10-01-Preview, via une nouvelle propriété vectorFilterMode sur la requête qui peut être définie sur preFilter (par défaut) ou postFilter , en fonction de vos besoins. |
Octobre | API | 01-10-2023-Préversion API REST Azure AI Rechercher, la rupture modifie la définition des champs vectoriels et des recherches vectorielles. |
Août | Fonctionnalité | Classement sémantique amélioré. Les modèles mis à niveau sont déployés pour la reclassement sémantique, et la disponibilité est étendue à d’autres régions. Le nombre maximal de jetons uniques est doublé, passant de 128 à 256. |
Juillet | Exemple | Démo vectorielle (SDK Azure pour JavaScript). Utilise Node.js et la bibliothèque @azure/search-documents 12.0.0-beta.2 pour générer des incorporations, créer et charger un index, et exécuter plusieurs requêtes vectorielles. |
Juillet | Exemple | Version de démonstration vectorielle (SDK Azure pour .NET). Utilise la bibliothèque Azure.Search.Documents 11.5.0-beta.3 pour générer des incorporations, créer et charger un index et exécuter plusieurs requêtes vectorielles. Vous pouvez également essayer cet exemple à partir de l’équipe du KIT de développement logiciel (SDK) Azure. |
Juillet | Exemple | Version de démonstration du vecteur (Azure SDK pour Python) Utilise la dernière version beta de azure.search.documents pour générer des incorporations, créer et charger un index, et exécuter plusieurs requêtes vectorielles. Pour obtenir d’autres démonstrations de recherche vectorielle, consultez le référentiel azure-search-vector-samples/demo-python. |
Juin | Fonctionnalité | Préversion publique de recherche vectorielle. |
Juin | Fonctionnalité | Disponibilité de la recherche sémantique, disponible sur le niveau de base. |
Juin | API | 01-07-2023-Préversion API REST Azure AI Recherche. Prise en charge de la recherche vectorielle. |
Mai | Fonctionnalité | Azure RBAC (contrôle d’accès en fonction du rôle, généralement disponible). |
Mai | API | 01-09-2022 Gestion de l’API REST, avec prise en charge de la configuration de la recherche pour utiliser les rôles Azure. Le module Az.Search d’Azure PowerShell et le module de recherche Az d’Azure CLI sont mis à jour pour prendre en charge les options d’authentification du service de recherche. Vous pouvez également utiliser le fournisseur Terraform pour configurer des options d’authentification (consultez ce Guide de démarrage rapide Terraform si vous souhaitez obtenir plus d’informations). |
Avril | Exemple | Déploiement multirégion de Recherche Azure AI pour la continuité d’activité et la reprise d’activité. Scripts de déploiement qui configurent entièrement une solution multirégion pour Recherche Azure AI, avec des options de synchronisation du contenu et de redirection des requêtes en cas de défaillance d’un point de terminaison. |
Mars | Exemple | Données ChatGPT + Entreprise avec Azure OpenAI et Recherche Azure AI (GitHub). Code Python et un modèle pour combiner Recherche Azure AI avec les grands modèles de langage dans OpenAI. Pour plus d’informations, consultez ce billet de blog de la communauté tech : Révolutionnez vos données d’entreprise avec ChatGPT. Points clés : Utilisez Recherche Azure AI pour regrouper et indexer des contenus pouvant faire l’objet d’une recherche. Interrogez l’index pour obtenir les résultats de la recherche initiale. Assemblez les invites à partir de ces résultats et envoyez-les vers le modèle gpt-35-turbo (préversion) dans Azure OpenAI. Retournez une réponse entre documents fournissez des citations et une transparence dans votre application destinée aux clients afin que les utilisateurs puissent évaluer la réponse. |
Annonces de l’année précédente
Renommage du service
Au fil des ans, le nom de ce service a évolué plusieurs fois. Voici ses différentes appellations classées par ordre chronologique inverse :
- Recherche Azure AI (novembre 2023) Renommé pour s’aligner sur Azure AI services et les attentes des clients.
- Recherche cognitive Azure (octobre 2019) Renommé pour refléter l’utilisation étendue (mais facultative) des compétences cognitives et du traitement par IA dans les opérations de service.
- Recherche Azure (mars 2015) Nom d’origine.
Mises à jour de service
Les annonces de mise à jour de service pour Recherche Azure AI sont disponibles sur le site web Azure.
Renommage d’une fonctionnalité
La recherche sémantique a été renommée classeur sémantique en novembre 2023 pour mieux décrire la fonctionnalité, qui fournit un classement L2 d’un ensemble de résultats existants.