Introduction
Azure AI Speech fournit des API que vous pouvez utiliser pour créer des applications vocales. notamment :
- Reconnaissance vocale : API qui active la reconnaissance vocale dans laquelle votre application peut accepter une entrée orale.
- Synthèse vocale : API qui active la synthèse vocale dans laquelle votre application peut fournir une sortie orale.
- Traduction vocale : API que vous pouvez utiliser pour traduire des entrées orales en plusieurs langues.
- Reconnaissance de l’orateur : API qui permet à votre application de reconnaître des orateurs individuels en fonction de leur voix.
- Reconnaissance d'intention : une API qui utilise la compréhension du langage conversationnel pour déterminer la signification sémantique des entrées vocales.
Ce module se concentre sur la reconnaissance vocale et la synthèse vocale, les principales fonctionnalités d’une application de reconnaissance vocale.
Dans ce module, vous allez apprendre à :
- Provisionner une ressource Azure pour le service Azure AI Speech
- Utiliser l’API de reconnaissance vocale pour implémenter la reconnaissance vocale
- Utiliser l’API de synthèse vocale pour implémenter la synthèse vocale
- Configurer le format audio et les voix
- Utiliser Speech Synthesis Markup Language (SSML)
Les unités du module comprennent des informations conceptuelles importantes sur Azure AI Speech et sur la manière d'utiliser son API par le biais de l'un des kits de développement logiciel (SDK) pris en charge, après quoi vous pourrez essayer Azure AI Speech dans le cadre d'un exercice pratique. Pour effectuer l’exercice pratique, vous aurez besoin d’un abonnement Microsoft Azure. Si vous n’en avez pas, vous pouvez vous inscrire à une évaluation gratuite dans la page https://azure.com/free.