Partager via


Fonction ai_query

S’applique à : case marquée oui Databricks SQL case marquée oui Databricks Runtime

Important

Cette fonctionnalité est disponible en préversion publique.

Appelle un point de terminaison de mise en service de modèle Azure Databricks existant, analyse et retourne ensuite sa réponse.

Spécifications

  • Cette fonction n’est pas disponible sur Azure Databricks SQL classique.
  • L’interrogation des API de modèle de fondation est activée par défaut. Pour interroger des points de terminaison qui servent des modèles personnalisés ou des modèles externes, activez AI_Query pour les modèles personnalisés et les modèles externes dans l’interface utilisateur des préversions de Databricks.
  • Le canal d’entrepôt DLT actuel n’utilise pas la dernière version de Databricks Runtime qui prend en charge ai_query(). Définissez les propriétés de la table pipelines.channel comme 'preview' à utiliser ai_query(). Consultez Exemples pour obtenir un exemple de requête.

Remarque

  • Dans Databricks Runtime 14.2 et versions ultérieures, cette fonction est prise en charge dans les notebooks Databricks, notamment les notebooks exécutés en tant que tâche dans un flux de travail Databricks.
  • Dans Databricks Runtime 14.1 et ci-dessous, cette fonction n’est pas prise en charge dans les notebooks Databricks.

Syntaxe

Pour interroger un point de terminaison servant un modèle externe ou un modèle de base :

ai_query(endpointName, request)

Pour interroger un point de terminaison de mise en service de modèle personnalisé avec un schéma de modèle :

ai_query(endpointName, request)

Pour interroger un point de terminaison de mise en service de modèle personnalisé sans schéma de modèle :

ai_query(endpointName, request, returnType)

Arguments

  • endpointName : littéral de CHAÎNE, le nom d’un point de terminaison de mise en service Databricks Foundation Model, un point de terminaison de mise en service de modèle externe ou un point de terminaison de modèle personnalisé dans le même espace de travail pour les invocations. L’utilisateur qui définit doit disposer de l’autorisation PEUT INTERROGER sur le point de terminaison.
  • request : expression, la requête utilisée pour appeler le point de terminaison.
    • Si le point de terminaison est un point de terminaison de service des modèles externes ou un point de terminaison d’API du modèle Databricks Foundation, la requête doit être une CHAINE.
    • Si le point de terminaison est un point de terminaison de service des modèles personnalisés, la requête peut être une unique colonne ou une expression de struct. Les noms de champ struct doivent correspondre aux noms des fonctionnalités d’entrée attendus par le point de terminaison.
  • returnType : Une expression, le returnType attendu du point de terminaison. Ceci est similaire au paramètre de schéma dans from_json fonction, qui accepte une expression STRING ou l’appel de schema_of_json fonction.
    • Dans Databricks Runtime 14.2 et versions ultérieures, si cette expression n’est pas fournie, ai_query() déduit automatiquement le type de retour du schéma de modèle du point de terminaison de mise en service de modèle personnalisé.
    • Dans Databricks Runtime 14.1 et versions antérieures, cette expression est requise pour interroger un point de terminaison de mise en service de modèle personnalisé.

Retours

Réponse analysée du point de terminaison.

Exemples

Pour interroger un point de terminaison de service de modèle externe :

> SELECT ai_query(
    'my-external-model-openai-chat',
    'Describe Databricks SQL in 30 words.'
  ) AS summary

  "Databricks SQL is a cloud-based platform for data analytics and machine learning, providing a unified workspace for collaborative data exploration, analysis, and visualization using SQL queries."

Pour interroger un modèle de fondation pris en charge par les API Modèle de fondation Databricks :

> SELECT *,
  ai_query(
    'databricks-meta-llama-3-1-70b-instruct',
    "Can you tell me the name of the US state that serves the provided ZIP code? zip code: " || pickup_zip
    )
  FROM samples.nyctaxi.trips
  LIMIT 10

Si vous le souhaitez, vous pouvez également encapsuler un appel à ai_query() dans une fonction définie par l’utilisateur pour l’appel de fonction, comme suit :

> CREATE FUNCTION correct_grammar(text STRING)
  RETURNS STRING
  RETURN ai_query(
    'databricks-llama-2-70b-chat',
    CONCAT('Correct this to standard English:\n', text));
> GRANT EXECUTE ON correct_grammar TO ds;
- DS fixes grammar issues in a batch.
> SELECT
    * EXCEPT text,
    correct_grammar(text) AS text
  FROM articles;

Pour interroger un point de terminaison en service des modèles personnalisés :


> SELECT text, ai_query(
    endpoint => 'spam-classification-endpoint',
    request => named_struct(
      'timestamp', timestamp,
      'sender', from_number,
      'text', text),
    returnType => 'BOOLEAN') AS is_spam
  FROM messages

> SELECT ai_query(
    'weekly-forecast',
    request => struct(*),
    returnType => 'FLOAT') AS predicted_revenue
  FROM retail_revenue

> SELECT ai_query(
    'custom-llama-2-7b-chat',
    request => named_struct("messages",
        ARRAY(named_struct("role", "user", "content", "What is ML?"))),
    returnType => 'STRUCT<candidates:ARRAY<STRING>>')

  {"candidates":["ML stands for Machine Learning. It's a subfield of Artificial Intelligence that involves the use of algorithms and statistical models to enable machines to learn from data, make decisions, and improve their performance on a specific task over time."]}

Exemple de requête pour définir le canal DLT en préversion :

> create or replace materialized view
    ai_query_mv
    TBLPROPERTIES('pipelines.channel' = 'PREVIEW') AS
  SELECT
    ai_query("databricks-dbrx-instruct", text) as response
  FROM
    messages