Configuration et considérations pour ai_generate_text()
Important
Cette fonctionnalité est disponible en préversion publique.
Avertissement
La fonction IA ai_generate_text()
est déconseillée. Databricks recommande d’utiliser ai_query avec des modèles externes.
Cet article décrit les éléments à prendre en compte et les éléments à configurer avant de commencer à utiliser la fonction ai_generate_text()
, notamment comment récupérer les informations d'authentification et les stocker en toute sécurité. Il inclut également des limitations de fonctionnalités et des considérations coût-performance.
Qu'est-ce que ai_generate_text()
?
La fonction ai_generate_text()
est une fonction SQL Azure Databricks intégrée qui vous permet d'accéder à des modèles de langage étendus (LLM) directement à partir de SQL. Cette fonction prend actuellement en charge l'accès aux modèles OpenAI et Azure OpenAI et permet aux clients de les utiliser comme éléments de base dans les pipelines de données et les charges de travail d'apprentissage automatique. Pour connaître la syntaxe et les modèles de conception, consultez le contenu du manuel du langage de fonction ai_generate_text.
Les cas d'utilisation possibles de ai_generate_text()
incluent la traduction, le résumé, les actions recommandées, l'identification d'un sujet ou d'un thème, et bien plus encore.
Voici quelques avantages de l’utilisation des LLM sur Azure Databricks :
- Couche d’accès et de gestion unifiée sur les LLM open source et propriétaires.
- Infrastructure LLM sans serveur, à mise à l'échelle automatique et intégrée aux données.
- Simplicité du pointer-cliquer pour personnaliser les LLM en fonction des besoins de votre entreprise et de vos cas d'utilisation.
- Pour les utilisateurs avancés, des outils pour le développement et la personnalisation rapides de LLM open source.
Spécifications
- Inscription à la préversion publique des fonctions IA. Pour vous inscrire à la préversion publique, remplissez et soumettez le formulaire d'inscription à la préversion publique d'AI Functions.
- Azure Databricks SQL Pro ou Serverless.
- Comprenez que l'activation et l'utilisation de cette fonctionnalité incitent les données à quitter votre environnement SQL et à les transmettre à des fournisseurs de modèles LLM tiers : OpenAI et Azure OpenAI.
- Vous avez accès à Azure OpenAI ou OpenAI.
- Un modèle GPT 3.5 Turbo déployé.
Récupérer les détails d'authentification
Pour utiliser la fonction ai_generate_text()
, vous devez pouvoir accéder à Azure OpenAI ou OpenAI.
Récupérez les détails d’authentification pour Azure OpenAI en procédant comme suit. Vos informations d'authentification remplissent les paramètres resourceName
et deploymentName
de ai_generate_text()
.
- Accédez à Cognitive Services sur le portail Azure et sélectionnez Azure OpenAI.
- Sélectionnez la ressource que vous souhaitez utiliser.
- Sélectionnez Clés et point de terminaison sous Gestion des ressources.
- Copiez votre clé et le nom de votre ressource.
- Sélectionnez Déploiements de modèles sous Gestion des ressources.
- Copiez le nom de votre modèle de déploiement.
Pour OpenAI, vous pouvez accéder à OpenAI et sélectionner des clés API pour créer votre clé.
Remarque
Vous ne pouvez pas copier les clés d'une configuration de clés existante.
Vous pouvez :
- Récupérez la clé auprès de la personne, également appelée principal, qui a créé la configuration.
- Créez une nouvelle clé et copiez la clé fournie lors de la création réussie.
Stocker les jetons d'accès
Important
N'incluez pas votre jeton en texte brut dans votre bloc-notes, votre code ou votre dépôt git.
Vous pouvez utiliser les secrets Azure Databricks pour conserver vos jetons API. Utilisez l’interface CLI Databricks ou l’API Secrets 2.0 pour créer vos secrets. Les étapes de l'exemple suivant utilisent la CLI Secrets :
Si vous ne disposez pas déjà d’une portée secrète dans laquelle conserver vos clés OpenAI, créez-en une :
databricks secrets create-scope openai
Vous devez accorder des autorisations READ ou supérieures aux utilisateurs ou groupes autorisés à se connecter à OpenAI. Databricks recommande de créer un groupe
openai-users
et d'ajouter les utilisateurs autorisés à ce groupe.databricks secrets put-acl openai openai-users READ
Créez un secret pour votre jeton d'accès API. Databricks recommande le format
<resource-name>-key
:databricks secrets put-secret openai demo-key --string-value yourkey123
Limites
ai_generate_text()
n'est pas pris en charge dans les clusters interactifs ou de tâches.- Les seuls modèles pris en charge dans l'aperçu sont
openai/gpt-3.5-turbo
etazure_openai/gpt-35-turbo
. - La limite de jetons pour
openai/gpt-3.5-turbo
etazure_openai/gpt-35-turbo
est de 4 096 jetons.
Considérations relatives aux coûts et aux performances
- OpenAI et Azure OpenAI Services nécessitent des souscriptions et sont facturés séparément d'Azure Databricks.
- Les coûts des jetons OpenAI et Azure OpenAI Services s’appliquent aux entrées et aux sorties.
- Consultez la page de tarification OpenAI et la page de tarification Azure OpenAI pour plus de détails.
- Au sein d'une requête donnée, les appels aux API LLM sont effectués séquentiellement pour la ou les colonnes sur lesquelles les fonctions sont appelées.
- Par rapport à la plupart des fonctions SQL, les requêtes utilisées
ai_generate_text()
ont tendance à s'exécuter plus lentement.
- Par rapport à la plupart des fonctions SQL, les requêtes utilisées
- Le temps de réponse d'une requête qui appelle AI Functions dépend à la fois de la tâche spécifiée dans l'invite et du nombre de jetons fournis et demandés.
- Azure OpenAI Service n’est disponible que dans un petit nombre de régions Azure au moment de cette préversion.
Ressources supplémentaires
Consultez la documentation du manuel du langage pour connaître la syntaxe et les modèles de conception de la fonction ai_generate_text.
Voir Analyser les avis clients avec ai_generate_text() et OpenAI pour un exemple d'utilisation de ai_generate_text()
dans un scénario commercial.