Démarrage rapide : Analyse d'images
Cet article explique comment configurer un script d’étiquetage d’image de base en utilisant l’API REST Analyse Image ou des bibliothèques de client. Le service Analyse Image vous fournit des algorithmes IA pour traiter des images et retourner des informations sur leurs caractéristiques visuelles. Suivez les étapes suivantes pour installer un package sur votre application et tester l’exemple de code.
Utilisez la bibliothèque client Image Analysis pour C# pour analyser une image pour les balises de contenu. Le démarrage rapide définit une méthode AnalyzeImageUrl
, qui utilise l’objet client pour analyser une image distante et afficher les résultats.
Documentation de référence | Code source de la bibliothèque | Package (NuGet) | Exemples
Conseil
Vous pouvez également analyser une image locale. Consultez les méthodes ComputerVisionClient, comme AnalyzeImageInStreamAsync. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Conseil
L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.
Prérequis
- Un abonnement Azure. Vous pouvez en créer un gratuitement.
- L’IDE Visual Studio ou la version actuelle de .NET Core.
- Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
- Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Analyser l’image
Créez une application C#.
À l’aide de Visual Studio, créez une application .NET Core.
Installer la bibliothèque de client
Une fois que vous avez créé un projet, installez la bibliothèque de client en cliquant avec le bouton droit sur la solution de projet dans l’Explorateur de solutions, puis en sélectionnant Gérer les packages NuGet. Dans le gestionnaire de package qui s’ouvre, sélectionnez Parcourir, cochez Inclure la préversion et recherchez
Microsoft.Azure.CognitiveServices.Vision.ComputerVision
. Sélectionnez la version7.0.0
, puis Installer.À partir du répertoire de projet, ouvrez le fichier Program.cs dans votre éditeur ou votre IDE favori. Collez le code suivant :
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); // URL image used for analyzing an image (image of puppy) private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); // Create a client ComputerVisionClient client = Authenticate(endpoint, key); // Analyze an image to get features and other properties. AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait(); } /* * AUTHENTICATE * Creates a Computer Vision client used by each example. */ public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("ANALYZE IMAGE - URL"); Console.WriteLine(); // Creating a list that defines the features to be extracted from the image. List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>() { VisualFeatureTypes.Tags }; Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}..."); Console.WriteLine(); // Analyze the URL image ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features); // Image tags and their confidence score Console.WriteLine("Tags:"); foreach (var tag in results.Tags) { Console.WriteLine($"{tag.Name} {tag.Confidence}"); } Console.WriteLine(); } } }
Important
N’oubliez pas de supprimer la clé de votre code une fois que vous avez terminé, et ne la postez jamais publiquement. Pour la production, utilisez un moyen sécurisé de stocker et d’accéder à vos informations d’identification comme Azure Key Vault. Pour plus d'informations, consultez sécurité Azure AI services.
Exécution de l'application
Exécutez l’application en cliquant sur le bouton Déboguer en haut de la fenêtre de l’IDE.
Sortie
La sortie de votre opération doit ressembler à l’exemple suivant.
----------------------------------------------------------
ANALYZE IMAGE - URL
Analyzing the image sample16.png...
Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Contenu connexe
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Découvrez ensuite les fonctionnalités de l’API Analyse Image.
Utilisez la bibliothèque client Image Analysis pour Python pour analyser une image distante pour les balises de contenu.
Conseil
Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVisionClientOperationsMixin, comme analyze_image_in_stream
. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Conseil
L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.
Documentation de référence | Code source de la bibliothèque | Package (PiPy) | Exemples C#
Prérequis
- Un abonnement Azure. Vous pouvez en créer un gratuitement.
- Python 3.x.
- Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé en exécutant
pip --version
sur la ligne de commande. Procurez-vous pip en installant la dernière version de Python.
- Votre installation Python doit inclure pip. Vous pouvez vérifier si pip est installé en exécutant
- Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
- Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Analyser l’image
Installez la bibliothèque de client.
Vous pouvez installer la bibliothèque de client avec :
pip install --upgrade azure-cognitiveservices-vision-computervision
Installez aussi la bibliothèque Pillow.
pip install pillow
Créez une application Python.
Créez un fichier Python. Vous pouvez le nommer par exemple quickstart-file.py.
Ouvrez quickstart-file.py dans un éditeur de texte ou un IDE et collez-le dans le code suivant.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' Quickstart variables These variables are shared by several examples ''' # Images used for the examples: Describe an image, Categorize an image, Tag an image, # Detect faces, Detect adult or racy content, Detect the color scheme, # Detect domain-specific content, Detect image types, Detect objects images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images") remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg" ''' END - Quickstart variables ''' ''' Tag an Image - remote This example returns a tag (key word) for each thing in the image. ''' print("===== Tag an image - remote =====") # Call API with remote image tags_result_remote = computervision_client.tag_image(remote_image_url ) # Print results with confidence score print("Tags in the remote image: ") if (len(tags_result_remote.tags) == 0): print("No tags detected.") else: for tag in tags_result_remote.tags: print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100)) print() ''' END - Tag an Image - remote ''' print("End of Computer Vision quickstart.")
Exécutez l’application en utilisant la commande
python
sur votre fichier de démarrage rapide.python quickstart-file.py
Sortie
La sortie de l’opération doit ressembler à l’exemple suivant.
===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%
End of Azure AI Vision quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étape suivante
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.
Utilisez la bibliothèque de client Analyse Image pour Java pour rechercher dans une image distante des étiquettes, une description textuelle, des visages, du contenu pour adultes, etc.
Conseil
Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVision, comme AnalyzeImage
. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Conseil
L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.
Documentation de référence | Code source de la bibliothèque |Artefact (Maven) | Exemples
Prérequis
- Un abonnement Azure. Vous pouvez en créer un gratuitement.
- La version actuelle du JDK (Java Development Kit).
- L’outil de génération Gradle ou un autre gestionnaire de dépendances.
- Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
- Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Analyser l’image
Créez un projet Gradle.
Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.
mkdir myapp && cd myapp
Exécutez la commande
gradle init
à partir de votre répertoire de travail. Cette commande crée des fichiers de build essentiels pour Gradle, notamment build.gradle.kts, qui est utilisé au moment de l’exécution pour créer et configurer votre application.gradle init --type basic
Quand vous êtes invité à choisir un DSL, sélectionnez Kotlin.
Installez la bibliothèque de client.
Ce guide de démarrage rapide utilise le gestionnaire de dépendances Gradle. Vous trouverez la bibliothèque de client et des informations concernant d’autres gestionnaires de dépendances sur le référentiel central Maven.
Recherchez build.gradle.kts et ouvrez-le avec votre IDE ou votre éditeur de texte habituel. Ensuite, copiez et collez la configuration de build suivante dans le fichier. Cette configuration définit le projet en tant qu’application Java dont le point d’entrée est la classe
ImageAnalysisQuickstart
. Cela importe la bibliothèque Azure AI Vision.plugins { java application } application { mainClass.set("ImageAnalysisQuickstart") } repositories { mavenCentral() } dependencies { implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta") }
Créez un fichier Java.
Dans votre répertoire de travail, exécutez la commande suivante pour créer un dossier de projet source :
mkdir -p src/main/java
Accédez au nouveau dossier et créez le fichier ImageAnalysisQuickstart.java.
Ouvrez ImageAnalysisQuickstart.java dans votre éditeur ou IDE préféré et collez-le dans le code suivant.
import com.microsoft.azure.cognitiveservices.vision.computervision.*; import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl; import com.microsoft.azure.cognitiveservices.vision.computervision.models.*; import java.io.*; import java.nio.file.Files; import java.util.ArrayList; import java.util.List; import java.util.UUID; public class ImageAnalysisQuickstart { // Use environment variables static String key = System.getenv("VISION_KEY"); static String endpoint = System.getenv("VISION_ENDPOINT"); public static void main(String[] args) { System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample"); // Create an authenticated Computer Vision client. ComputerVisionClient compVisClient = Authenticate(key, endpoint); // Analyze local and remote images AnalyzeRemoteImage(compVisClient); } public static ComputerVisionClient Authenticate(String key, String endpoint){ return ComputerVisionManager.authenticate(key).withEndpoint(endpoint); } public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) { /* * Analyze an image from a URL: * * Set a string variable equal to the path of a remote image. */ String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg"; // This list defines the features to be extracted from the image. List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>(); featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS); System.out.println("\n\nAnalyzing an image from a URL ..."); try { // Call the Computer Vision service and tell it to analyze the loaded image. ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage) .withVisualFeatures(featuresToExtractFromRemoteImage).execute(); // Display image tags and confidence values. System.out.println("\nTags: "); for (ImageTag tag : analysis.tags()) { System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence()); } } catch (Exception e) { System.out.println(e.getMessage()); e.printStackTrace(); } } // END - Analyze an image from a URL. }
Revenez au dossier racine du projet, puis générez l’application avec :
gradle build
Exécutez-la avec la commande suivante :
gradle run
Sortie
La sortie de l’opération doit ressembler à l’exemple suivant.
Azure AI Vision - Java Quickstart Sample
Analyzing an image from a URL ...
Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étape suivante
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.
Utilisez la bibliothèque client Image Analysis pour JavaScript pour analyser une image distante pour y rechercher les balises de contenu.
Conseil
Vous pouvez également analyser une image locale. Reportez-vous aux méthodes de ComputerVisionClient, comme describeImageInStream
. Ou consultez l’exemple de code sur GitHub pour obtenir des scénarios impliquant des images locales.
Conseil
L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.
Documentation de référence | Package (npm) | Échantillons
Prérequis
- Un abonnement Azure. Vous pouvez en créer un gratuitement.
- Version actuelle de Node.js.
- Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
- Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.
Créer des variables d’environnement
Dans cet exemple, écrivez vos informations d’identification dans des variables d’environnement sur l’ordinateur local exécutant l’application.
Accédez au portail Azure. Si la ressource que vous avez créée dans la section Prérequis a été correctement déployée, sélectionnez Accéder à la ressource sous Étapes suivantes. Vous trouverez votre clé et votre point de terminaison sous Gestion des ressources dans la page Clés et point de terminaison. Votre clé de ressource n’est pas la même que votre ID d’abonnement Azure.
Pour définir la variable d’environnement de votre clé et point de terminaison, ouvrez une fenêtre de console et suivez les instructions relatives à votre système d’exploitation et à votre environnement de développement.
- Pour définir la variable d’environnement
VISION_KEY
, remplacez<your_key>
par l’une des clés de votre ressource. - Pour définir la
VISION_ENDPOINT
variable d’environnement, remplacez<your_endpoint>
par le point de terminaison de votre ressource.
Important
Si vous utilisez une clé API, stockez-la en toute sécurité dans un autre emplacement, par exemple dans Azure Key Vault. N'incluez pas la clé API directement dans votre code et ne la diffusez jamais publiquement.
Pour plus d’informations sur la sécurité des services IA, consultez Authentifier les demandes auprès d’Azure AI services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Après avoir ajouté les variables d’environnement, vous devrez peut-être redémarrer tous les programmes en cours d’exécution qui les liront, y compris la fenêtre de console.
Analyser l’image
Création d’une application Node.js
Dans une fenêtre de console (telle que cmd, PowerShell ou bash), créez un répertoire pour votre application et accédez-y.
mkdir myapp && cd myapp
Exécutez la commande
npm init
pour créer une application de nœud avec un fichier package.json.npm init
Installer la bibliothèque de client
Installez le package npm
ms-rest-azure
et@azure/cognitiveservices-computervision
:npm install @azure/cognitiveservices-computervision
Installez également le module async :
npm install async
Le fichier
package.json
de votre application est mis à jour avec les dépendances.Créez un fichier appelé index.js.
Ouvrez index.js dans un éditeur de texte et collez-y le code suivant.
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * DETECT TAGS * Detects tags for an image, which returns: * all objects in image and confidence score. */ console.log('-------------------------------------------------'); console.log('DETECT TAGS'); console.log(); // Image of different kind of dog. const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg'; // Analyze URL image console.log('Analyzing tags in image...', tagsURL.split('/').pop()); const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags; console.log(`Tags: ${formatTags(tags)}`); // Format tags for display function formatTags(tags) { return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', '); } /** * END - Detect Tags */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();
Exécutez l’application avec la commande
node
de votre fichier de démarrage rapide.node index.js
Sortie
La sortie de l’opération doit ressembler à l’exemple suivant.
-------------------------------------------------
DETECT TAGS
Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)
-------------------------------------------------
End of quickstart.
Nettoyer les ressources
Si vous souhaitez nettoyer et supprimer un abonnement Azure AI services, vous pouvez supprimer la ressource ou le groupe de ressources. La suppression du groupe de ressources efface également les autres ressources qui y sont associées.
Étape suivante
Dans ce guide de démarrage rapide, vous avez appris à installer la bibliothèque de client Analyse d’image et à effectuer des appels d’analyse d’image de base. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.
Utilisez l’API Rest d’analyse d’image pour analyser une image à la recherche d’étiquettes.
Conseil
L’API Analyse Image peut effectuer de nombreuses opérations différentes en plus de générer des étiquettes d’image. Consultez le guide pratique Image Analysis pour obtenir des exemples qui présentent toutes les fonctionnalités disponibles.
Notes
Ce guide de démarrage rapide utilise des commandes cURL pour appeler l’API REST. Vous pouvez également appeler l’API REST à l’aide d’un langage de programmation. Vous pouvez consulter des exemples C#, Python, Java et JavaScript sur GitHub.
Prérequis
- Un abonnement Azure. Vous pouvez en créer un gratuitement.
- Une fois que vous avez votre abonnement Azure, créez une ressource Vision par ordinateur dans le portail Azure pour obtenir votre clé et votre point de terminaison. À la fin du déploiement, sélectionnez Accéder à la ressource.
- Vous avez besoin de la clé et du point de terminaison de la ressource que vous créez pour connecter votre application au service Azure AI Vision.
- Vous pouvez utiliser le niveau tarifaire Gratuit (
F0
) pour tester le service, puis passer par la suite à un niveau payant pour la production.
- cURL installé.
Analyser une image
Pour analyser les différentes caractéristiques visuelles d’une image, effectuez les étapes suivantes :
Copiez la commande ci-après dans un éditeur de texte.
curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"
Effectuez les modifications nécessaires dans la commande :
- Remplacez la valeur de
<yourKey>
par la clé de votre ressource Vision par ordinateur. - Remplacez la première partie de l’URL de la requête (
westcentralus.api.cognitive.microsoft.com
) par l’URL de votre propre point de terminaison.Remarque
Les nouvelles ressources créées après le 1er juillet 2019 utilisent des noms de sous-domaines personnalisés. Pour plus d’informations et afin d’obtenir une liste complète des points de terminaison régionaux, consultez Noms personnalisés de sous-domaine pour Azure AI services.
- Éventuellement, changez l’URL d’image dans le corps de la requête (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png
) par l’URL d’une autre image à analyser.
- Remplacez la valeur de
Ouvrir une fenêtre d’invite de commandes.
Collez votre commande
curl
modifiée à partir de l’éditeur de texte dans la fenêtre d’invite de commandes, puis exécutez la commande.
Examiner la réponse
Une réponse correcte est retournée au format JSON. L’exemple d’application analyse et affiche une réponse réussie dans la fenêtre d’invite de commandes, comme dans l’exemple suivant :
{
"tags":[
{
"name":"text",
"confidence":0.9992657899856567
},
{
"name":"post-it note",
"confidence":0.9879657626152039
},
{
"name":"handwriting",
"confidence":0.9730165004730225
},
{
"name":"rectangle",
"confidence":0.8658561706542969
},
{
"name":"paper product",
"confidence":0.8561884760856628
},
{
"name":"purple",
"confidence":0.5961999297142029
}
],
"requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
"metadata":{
"height":945,
"width":1000,
"format":"Jpeg"
},
"modelVersion":"2021-05-01"
}
Étape suivante
Dans ce guide de démarrage rapide, vous avez appris à effectuer des appels d’analyse d’image de base à l’aide de l’API REST. Maintenant, apprenez-en davantage sur les fonctionnalités de l’API Analyse Image.