Partager via


Démarrage rapide : Analyse d'images

Cet article explique comment configurer un script d’étiquetage d’image de base en utilisant l’API REST Analyse Image ou des bibliothèques de client. Le service Analyse Image vous fournit des algorithmes IA pour traiter des images et retourner des informations sur leurs caractéristiques visuelles. Suivez les étapes suivantes pour installer un package sur votre application et tester l’exemple de code.

Utilisez la bibliothèque client Image Analysis pour C# pour analyser une image pour les balises de contenu. Le démarrage rapide définit une méthode AnalyzeImageUrl, qui utilise l’objet client pour analyser une image distante et afficher les résultats.

Documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples

Conseil

Vous pouvez également analyser une image locale. Consultez les méthodes ComputerVisionClient, comme AnalyzeImageInStreamAsync. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Conseil

L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.

Prérequis

  • Un abonnement Azure. Vous pouvez en créer un gratuitement.
  • L’IDE Visual Studio ou la version actuelle de .NET Core.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
    • Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
    • Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement VISION_KEY, remplacez <your_key> par l’une des clés de votre ressource.
  • Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez <your_endpoint> par le point de terminaison de votre ressource.

Important

Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Analyser l’image

  1. Créez une application C#.

    À l’aide de Visual Studio, créez une application .NET Core.

    Installer la bibliothèque de client

    Une fois que vous avez créé un projet, installez la bibliothèque de client en cliquant avec le bouton droit sur la solution de projet dans l’Explorateur de solutions, puis en sélectionnant Gérer les packages NuGet. Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir, cochez Inclure la préversion et recherchez Microsoft.Azure.CognitiveServices.Vision.ComputerVision. Sélectionnez la version 7.0.0, puis Installer.

  2. À partir du répertoire de projet, ouvrez le fichier Program.cs dans votre éditeur ou votre IDE favori. Collez le code suivant :

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision key and endpoint
            static string key = Environment.GetEnvironmentVariable("VISION_KEY");
            static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT");
    
            // URL image used for analyzing an image (image of puppy)
            private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                // Create a client
                ComputerVisionClient client = Authenticate(endpoint, key);
    
                // Analyze an image to get features and other properties.
                AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait();
            }
    
            /*
             * AUTHENTICATE
             * Creates a Computer Vision client used by each example.
             */
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
           
            public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("ANALYZE IMAGE - URL");
                Console.WriteLine();
    
                // Creating a list that defines the features to be extracted from the image. 
    
                List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>()
                {
                    VisualFeatureTypes.Tags
                };
    
                Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}...");
                Console.WriteLine();
                // Analyze the URL image 
                ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features);
    
                // Image tags and their confidence score
                Console.WriteLine("Tags:");
                foreach (var tag in results.Tags)
                {
                    Console.WriteLine($"{tag.Name} {tag.Confidence}");
                }
                Console.WriteLine();
            }
        }
    }
    

    Important

    N’oubliez pas de supprimer la clé de votre code une fois que vous avez terminé, et ne la postez jamais publiquement. Pour la production, utilisez un moyen sécurisé de stocker et d’accéder à vos informations d’identification comme Azure Key Vault. Pour plus d'informations, consultez sécurité Azure AI services.

  3. Exécution de l'application

    Exécutez l’application en cliquant sur le bouton Déboguer en haut de la fenêtre de l’IDE.


Sortie

La sortie de votre opération doit ressembler à l’exemple suivant.

----------------------------------------------------------
ANALYZE IMAGE - URL

Analyzing the image sample16.png...

Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Découvrez ensuite les fonctionnalités de l’API Analyse Image.

Utilisez la bibliothèque client Image Analysis pour Python pour analyser une image distante pour les balises de contenu.

Conseil

Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVisionClientOperationsMixin, comme analyze_image_in_stream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Conseil

L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.

Documentation de référence | Code source de la bibliothèque | Package (PiPy) | Exemples C#

Prérequis

  • Un abonnement Azure. Vous pouvez en créer un gratuitement.
  • Python 3.x.
    • Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé en exécutant pip --version sur la ligne de commande. Procurez-vous pip en installant la dernière version de Python.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
    • Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
    • Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement VISION_KEY, remplacez <your_key> par l’une des clés de votre ressource.
  • Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez <your_endpoint> par le point de terminaison de votre ressource.

Important

Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Analyser l’image

  1. Installez la bibliothèque de client.

    Vous pouvez installer la bibliothèque de client avec :

    pip install --upgrade azure-cognitiveservices-vision-computervision
    

    Installez aussi la bibliothèque Pillow.

    pip install pillow
    
  2. Créez une application Python.

    Créez un fichier Python. Vous pouvez le nommer par exemple quickstart-file.py.

  3. Ouvrez quickstart-file.py dans un éditeur de texte ou un IDE et collez-le dans le code suivant.

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = os.environ["VISION_KEY"]
    endpoint = os.environ["VISION_ENDPOINT"]
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    Quickstart variables
    These variables are shared by several examples
    '''
    # Images used for the examples: Describe an image, Categorize an image, Tag an image, 
    # Detect faces, Detect adult or racy content, Detect the color scheme, 
    # Detect domain-specific content, Detect image types, Detect objects
    images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images")
    remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"
    '''
    END - Quickstart variables
    '''
    
    
    '''
    Tag an Image - remote
    This example returns a tag (key word) for each thing in the image.
    '''
    print("===== Tag an image - remote =====")
    # Call API with remote image
    tags_result_remote = computervision_client.tag_image(remote_image_url )
    
    # Print results with confidence score
    print("Tags in the remote image: ")
    if (len(tags_result_remote.tags) == 0):
        print("No tags detected.")
    else:
        for tag in tags_result_remote.tags:
            print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100))
    print()
    '''
    END - Tag an Image - remote
    '''
    print("End of Computer Vision quickstart.")
    
  4. Exécutez l’application en utilisant la commande python sur votre fichier de démarrage rapide.

    python quickstart-file.py
    

Sortie

La sortie de l’opération doit ressembler à l’exemple suivant.

===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%

End of Azure AI Vision quickstart.

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étape suivante

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.

Utilisez la bibliothèque de client Analyse Image pour Java pour rechercher dans une image distante des étiquettes, une description textuelle, des visages, du contenu pour adultes, etc.

Conseil

Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVision, comme AnalyzeImage. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Conseil

L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.

Documentation de référence | Code source de la bibliothèque |Artefact (Maven) | Exemples

Prérequis

  • Un abonnement Azure. Vous pouvez en créer un gratuitement.
  • La version actuelle du JDK (Java Development Kit).
  • L’outil de génération Gradle ou un autre gestionnaire de dépendances.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
    • Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
    • Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement VISION_KEY, remplacez <your_key> par l’une des clés de votre ressource.
  • Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez <your_endpoint> par le point de terminaison de votre ressource.

Important

Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Analyser l’image

  1. Créez un projet Gradle.

    Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.

    mkdir myapp && cd myapp
    

    Exécutez la commande gradle init à partir de votre répertoire de travail. Cette commande crée des fichiers de build essentiels pour Gradle, notamment build.gradle.kts, qui est utilisé au moment de l’exécution pour créer et configurer votre application.

    gradle init --type basic
    

    Quand vous êtes invité à choisir un DSL, sélectionnez Kotlin.

  2. Installez la bibliothèque de client.

    Ce guide de démarrage rapide utilise le gestionnaire de dépendances Gradle. Vous trouverez la bibliothèque de client et des informations concernant d’autres gestionnaires de dépendances sur le référentiel central Maven.

    Recherchez build.gradle.kts et ouvrez-le avec votre IDE ou votre éditeur de texte habituel. Ensuite, copiez et collez la configuration de build suivante dans le fichier. Cette configuration définit le projet en tant qu’application Java dont le point d’entrée est la classe ImageAnalysisQuickstart. Cela importe la bibliothèque Azure AI Vision.

    plugins {
        java
        application
    }
    application { 
        mainClass.set("ImageAnalysisQuickstart")
    }
    repositories {
        mavenCentral()
    }
    dependencies {
        implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta")
    }
    
  3. Créez un fichier Java.

    Dans votre répertoire de travail, exécutez la commande suivante pour créer un dossier de projet source :

    mkdir -p src/main/java
    

    Accédez au nouveau dossier et créez le fichier ImageAnalysisQuickstart.java.

  4. Ouvrez ImageAnalysisQuickstart.java dans votre éditeur ou IDE préféré et collez-le dans le code suivant.

    import com.microsoft.azure.cognitiveservices.vision.computervision.*;
    import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl;
    import com.microsoft.azure.cognitiveservices.vision.computervision.models.*;
    
    import java.io.*;
    import java.nio.file.Files;
    
    import java.util.ArrayList;
    import java.util.List;
    import java.util.UUID;
    
    public class ImageAnalysisQuickstart {
    
        // Use environment variables
        static String key = System.getenv("VISION_KEY");
        static String endpoint = System.getenv("VISION_ENDPOINT");
    
        public static void main(String[] args) {
            
            System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample");
    
            // Create an authenticated Computer Vision client.
            ComputerVisionClient compVisClient = Authenticate(key, endpoint); 
    
            // Analyze local and remote images
            AnalyzeRemoteImage(compVisClient);
    
        }
    
        public static ComputerVisionClient Authenticate(String key, String endpoint){
            return ComputerVisionManager.authenticate(key).withEndpoint(endpoint);
        }
    
    
        public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) {
            /*
             * Analyze an image from a URL:
             *
             * Set a string variable equal to the path of a remote image.
             */
            String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg";
    
            // This list defines the features to be extracted from the image.
            List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>();
            featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS);
    
            System.out.println("\n\nAnalyzing an image from a URL ...");
    
            try {
                // Call the Computer Vision service and tell it to analyze the loaded image.
                ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage)
                        .withVisualFeatures(featuresToExtractFromRemoteImage).execute();
    
    
                // Display image tags and confidence values.
                System.out.println("\nTags: ");
                for (ImageTag tag : analysis.tags()) {
                    System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence());
                }
            }
    
            catch (Exception e) {
                System.out.println(e.getMessage());
                e.printStackTrace();
            }
        }
        // END - Analyze an image from a URL.
    
    }
    
  5. Revenez au dossier racine du projet, puis générez l’application avec :

    gradle build
    

    Exécutez-la avec la commande suivante :

    gradle run
    

Sortie

La sortie de l’opération doit ressembler à l’exemple suivant.

Azure AI Vision - Java Quickstart Sample

Analyzing an image from a URL ...

Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étape suivante

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.

Utilisez la bibliothèque client Image Analysis pour JavaScript pour analyser une image distante pour y rechercher les balises de contenu.

Conseil

Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVisionClient, comme describeImageInStream. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.

Conseil

L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.

Documentation de référence | Package (npm) | Échantillons

Prérequis

  • Un abonnement Azure. Vous pouvez en créer un gratuitement.
  • Version actuelle de Node.js.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
    • Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
    • Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.

Créer des variables d’environnement

Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.

Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.

Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.

  • Pour définir la variable d’environnement VISION_KEY, remplacez <your_key> par l’une des clés de votre ressource.
  • Pour définir la VISION_ENDPOINTvariable d’environnement, remplacez <your_endpoint> par le point de terminaison de votre ressource.

Important

Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.

Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.

setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>

Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.

Analyser l’image

  1. Création d’une application Node.js

    Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.

    mkdir myapp && cd myapp
    

    Exécutez la commande npm init pour créer une application de nœud avec un fichier package.json.

    npm init
    

    Installer la bibliothèque de client

    Installez le package npm ms-rest-azure et @azure/cognitiveservices-computervision :

    npm install @azure/cognitiveservices-computervision
    

    Installez également le module async :

    npm install async
    

    Le fichier package.json de votre application est mis à jour avec les dépendances.

    Créez un fichier appelé index.js.

  2. Ouvrez index.js dans un éditeur de texte et collez-y le code suivant.

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = process.env.VISION_KEY;
    const endpoint = process.env.VISION_ENDPOINT;
    
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * DETECT TAGS  
           * Detects tags for an image, which returns:
           *     all objects in image and confidence score.
           */
          console.log('-------------------------------------------------');
          console.log('DETECT TAGS');
          console.log();
    
          // Image of different kind of dog.
          const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg';
    
          // Analyze URL image
          console.log('Analyzing tags in image...', tagsURL.split('/').pop());
          const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags;
          console.log(`Tags: ${formatTags(tags)}`);
    
          // Format tags for display
          function formatTags(tags) {
            return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', ');
          }
          /**
           * END - Detect Tags
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  3. Exécutez l’application avec la commande node de votre fichier de démarrage rapide.

    node index.js
    

Sortie

La sortie de l’opération doit ressembler à l’exemple suivant.

-------------------------------------------------
DETECT TAGS

Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)

-------------------------------------------------
End of quickstart.

Nettoyer les ressources

Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.

Étape suivante

Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.

Utilisez l’API Rest d’analyse d’image pour analyser une image à la recherche d’étiquettes.

Conseil

L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.

Notes

Ce guide de démarrage rapide utilise des commandes cURL pour appeler l’API REST. Vous pouvez également appeler l’API REST à l’aide d’un langage de programmation. Vous pouvez consulter des exemples C#, Python, Java et JavaScript sur GitHub.

Prérequis

  • Un abonnement Azure. Vous pouvez en créer un gratuitement.
  • Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
    • Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
    • Vous pouvez utiliser le niveau tarifaire Gratuit (F0) pour tester le service, puis passer par la suite à un niveau payant pour la production.
  • cURL installé.

Analyser une image

Pour analyser les différentes caractéristiques visuelles d’une image, effectuez les étapes suivantes :

  1. Copiez la commande ci-après dans un éditeur de texte.

    curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
    
  2. Effectuez les modifications nécessaires dans la commande :

    1. Remplacez la valeur de <yourKey> par la clé de votre ressource Vision par ordinateur.
    2. Remplacez la première partie de l’URL de la requête (westcentralus.api.cognitive.microsoft.com) par l’URL de votre propre point de terminaison.

      Remarque

      Les nouvelles ressources créées après le 1er juillet 2019 utilisent des noms de sous-domaines personnalisés. Pour plus d’informations et afin d’obtenir une liste complète des points de terminaison régionaux, consultez Noms personnalisés de sous-domaine pour Azure AI services.

    3. Éventuellement, changez l’URL d’image dans le corps de la requête (https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) par l’URL d’une autre image à analyser.
  3. Ouvrir une fenêtre d’invite de commandes.

  4. Collez votre commande curl modifiée à partir de l’éditeur de texte dans la fenêtre d’invite de commandes, puis exécutez la commande.

Examiner la réponse

Une réponse correcte est retournée au format JSON. L’exemple d’application analyse et affiche une réponse réussie dans la fenêtre d’invite de commandes, comme dans l’exemple suivant :

{
   "tags":[
      {
         "name":"text",
         "confidence":0.9992657899856567
      },
      {
         "name":"post-it note",
         "confidence":0.9879657626152039
      },
      {
         "name":"handwriting",
         "confidence":0.9730165004730225
      },
      {
         "name":"rectangle",
         "confidence":0.8658561706542969
      },
      {
         "name":"paper product",
         "confidence":0.8561884760856628
      },
      {
         "name":"purple",
         "confidence":0.5961999297142029
      }
   ],
   "requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
   "metadata":{
      "height":945,
      "width":1000,
      "format":"Jpeg"
   },
   "modelVersion":"2021-05-01"
}

Étape suivante

Dans ce guide de démarrage rapide, vous avez appris à effectuer des appels d’analyse d’image de base à l’aide de l’API REST. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.