Condividi tramite


Ispezione dei dati di telemetria con aspirare dashboard

Aspira dashboard fa parte dell'offerta .NET Aspire . Il dashboard consente agli sviluppatori di monitorare e controllare le applicazioni distribuite.

In questo esempio si userà la modalità autonoma e si apprenderà come esportare i dati di telemetria in Aspira dashboard ed esaminare i dati in tale posizione.

Esportatore

Gli esportatori sono responsabili dell'invio di dati di telemetria a una destinazione. Altre informazioni sugli esportatori sono disponibili qui. In questo esempio si usa l'utilità di esportazione OTLP (OpenTelemetry Protocol) per inviare i dati di telemetria a Aspire Dashboard.

Prerequisiti

  • Distribuzione del completamento della chat OpenAI di Azure.
  • Docker
  • La versione più recente di .Net SDK per il sistema operativo.

Nota

L'osservabilità del kernel semantico non è ancora disponibile per Java.

Attrezzaggio

Creare un nuovo progetto di applicazione console

In un terminale eseguire il comando seguente per creare una nuova applicazione console in C#:

dotnet new console -n TelemetryAspireDashboardQuickstart

Passare alla directory del progetto appena creata al termine del comando.

Installare i pacchetti necessari

  • Kernel semantico

    dotnet add package Microsoft.SemanticKernel
    
  • Utilità di esportazione della console OpenTelemetry

    dotnet add package OpenTelemetry.Exporter.OpenTelemetryProtocol
    

Creare una semplice applicazione con il kernel semantico

Dalla directory del progetto aprire il file con l'editor Program.cs preferito. Verrà creata una semplice applicazione che usa il kernel semantico per inviare una richiesta a un modello di completamento della chat. Sostituire il contenuto esistente con il codice seguente e immettere i valori obbligatori per deploymentName, endpointe apiKey:

using Microsoft.Extensions.DependencyInjection;
using Microsoft.Extensions.Logging;
using Microsoft.SemanticKernel;
using OpenTelemetry;
using OpenTelemetry.Logs;
using OpenTelemetry.Metrics;
using OpenTelemetry.Resources;
using OpenTelemetry.Trace;

namespace TelemetryAspireDashboardQuickstart
{
    class Program
    {
        static async Task Main(string[] args)
        {
            // Telemetry setup code goes here

            IKernelBuilder builder = Kernel.CreateBuilder();
            // builder.Services.AddSingleton(loggerFactory);
            builder.AddAzureOpenAIChatCompletion(
                deploymentName: "your-deployment-name",
                endpoint: "your-azure-openai-endpoint",
                apiKey: "your-azure-openai-api-key"
            );

            Kernel kernel = builder.Build();

            var answer = await kernel.InvokePromptAsync(
                "Why is the sky blue in one sentence?"
            );

            Console.WriteLine(answer);
        }
    }
}

Aggiungere dati di telemetria

Se si esegue l'app console ora, è consigliabile vedere una frase che spiega perché il cielo è blu. Per osservare il kernel tramite telemetria, sostituire il // Telemetry setup code goes here commento con il codice seguente:

// Endpoint to the Aspire Dashboard
var endpoint = "http://localhost:4317";

var resourceBuilder = ResourceBuilder
    .CreateDefault()
    .AddService("TelemetryAspireDashboardQuickstart");

// Enable model diagnostics with sensitive data.
AppContext.SetSwitch("Microsoft.SemanticKernel.Experimental.GenAI.EnableOTelDiagnosticsSensitive", true);

using var traceProvider = Sdk.CreateTracerProviderBuilder()
    .SetResourceBuilder(resourceBuilder)
    .AddSource("Microsoft.SemanticKernel*")
    .AddOtlpExporter(options => options.Endpoint = new Uri(endpoint))
    .Build();

using var meterProvider = Sdk.CreateMeterProviderBuilder()
    .SetResourceBuilder(resourceBuilder)
    .AddMeter("Microsoft.SemanticKernel*")
    .AddOtlpExporter(options => options.Endpoint = new Uri(endpoint))
    .Build();

using var loggerFactory = LoggerFactory.Create(builder =>
{
    // Add OpenTelemetry as a logging provider
    builder.AddOpenTelemetry(options =>
    {
        options.SetResourceBuilder(resourceBuilder);
        options.AddOtlpExporter(options => options.Endpoint = new Uri(endpoint));
        // Format log messages. This is default to false.
        options.IncludeFormattedMessage = true;
        options.IncludeScopes = true;
    });
    builder.SetMinimumLevel(LogLevel.Information);
});

Rimuovere infine il commento dalla riga per aggiungere la factory // builder.Services.AddSingleton(loggerFactory); del logger al generatore.

Per altre informazioni sul codice di configurazione dei dati di telemetria, vedere questo articolo . L'unica differenza è che stiamo usando AddOtlpExporter per esportare i dati di telemetria nel dashboard Di aspirare.

Creare un nuovo ambiente virtuale Python

python -m venv telemetry-aspire-dashboard-quickstart

Attivare l'ambiente virtuale.

telemetry-aspire-dashboard-quickstart\Scripts\activate

Installare i pacchetti necessari

pip install semantic-kernel opentelemetry-exporter-otlp-proto-grpc

Creare uno script Python semplice con il kernel semantico

Creare un nuovo script Python e aprirlo con l'editor preferito.

New-Item -Path telemetry_aspire_dashboard_quickstart.py -ItemType file

Verrà creato un semplice script Python che usa il kernel semantico per inviare una richiesta a un modello di completamento della chat. Sostituire il contenuto esistente con il codice seguente e immettere i valori obbligatori per deployment_name, endpointe api_key:

import asyncio
import logging

from opentelemetry._logs import set_logger_provider
from opentelemetry.exporter.otlp.proto.grpc._log_exporter import OTLPLogExporter
from opentelemetry.exporter.otlp.proto.grpc.metric_exporter import OTLPMetricExporter
from opentelemetry.exporter.otlp.proto.grpc.trace_exporter import OTLPSpanExporter
from opentelemetry.metrics import set_meter_provider
from opentelemetry.sdk._logs import LoggerProvider, LoggingHandler
from opentelemetry.sdk._logs.export import BatchLogRecordProcessor
from opentelemetry.sdk.metrics import MeterProvider
from opentelemetry.sdk.metrics.export import PeriodicExportingMetricReader
from opentelemetry.sdk.metrics.view import DropAggregation, View
from opentelemetry.sdk.resources import Resource
from opentelemetry.sdk.trace import TracerProvider
from opentelemetry.sdk.trace.export import BatchSpanProcessor
from opentelemetry.semconv.resource import ResourceAttributes
from opentelemetry.trace import set_tracer_provider

from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion


# Telemetry setup code goes here

async def main():
    # Create a kernel and add a service
    kernel = Kernel()
    kernel.add_service(AzureChatCompletion(
        api_key="your-azure-openai-api-key",
        endpoint="your-azure-openai-endpoint",
        deployment_name="your-deployment-name"
    ))

    answer = await kernel.invoke_prompt("Why is the sky blue in one sentence?")
    print(answer)


if __name__ == "__main__":
    asyncio.run(main())

Aggiungere dati di telemetria

Variabili di ambiente

Per altre informazioni sulla configurazione delle variabili di ambiente necessarie per consentire al kernel di generare intervalli per i connettori di intelligenza artificiale, vedere questo articolo .

Codice

Se si esegue lo script ora, si dovrebbe aspettare di vedere una frase che spiega perché il cielo è blu. Per osservare il kernel tramite telemetria, sostituire il # Telemetry setup code goes here commento con il codice seguente:

# Endpoint to the Aspire Dashboard
endpoint = "http://localhost:4317"

# Create a resource to represent the service/sample
resource = Resource.create({ResourceAttributes.SERVICE_NAME: "telemetry-aspire-dashboard-quickstart"})


def set_up_logging():
    exporter = OTLPLogExporter(endpoint=endpoint)

    # Create and set a global logger provider for the application.
    logger_provider = LoggerProvider(resource=resource)
    # Log processors are initialized with an exporter which is responsible
    # for sending the telemetry data to a particular backend.
    logger_provider.add_log_record_processor(BatchLogRecordProcessor(exporter))
    # Sets the global default logger provider
    set_logger_provider(logger_provider)

    # Create a logging handler to write logging records, in OTLP format, to the exporter.
    handler = LoggingHandler()
    # Add filters to the handler to only process records from semantic_kernel.
    handler.addFilter(logging.Filter("semantic_kernel"))
    # Attach the handler to the root logger. `getLogger()` with no arguments returns the root logger.
    # Events from all child loggers will be processed by this handler.
    logger = logging.getLogger()
    logger.addHandler(handler)
    logger.setLevel(logging.INFO)


def set_up_tracing():
    exporter = OTLPSpanExporter(endpoint=endpoint)

    # Initialize a trace provider for the application. This is a factory for creating tracers.
    tracer_provider = TracerProvider(resource=resource)
    # Span processors are initialized with an exporter which is responsible
    # for sending the telemetry data to a particular backend.
    tracer_provider.add_span_processor(BatchSpanProcessor(exporter))
    # Sets the global default tracer provider
    set_tracer_provider(tracer_provider)


def set_up_metrics():
    exporter = OTLPMetricExporter(endpoint=endpoint)

    # Initialize a metric provider for the application. This is a factory for creating meters.
    meter_provider = MeterProvider(
        metric_readers=[PeriodicExportingMetricReader(exporter, export_interval_millis=5000)],
        resource=resource,
        views=[
            # Dropping all instrument names except for those starting with "semantic_kernel"
            View(instrument_name="*", aggregation=DropAggregation()),
            View(instrument_name="semantic_kernel*"),
        ],
    )
    # Sets the global default meter provider
    set_meter_provider(meter_provider)


# This must be done before any other telemetry calls
set_up_logging()
set_up_tracing()
set_up_metrics()

Per altre informazioni sul codice di configurazione dei dati di telemetria, vedere questo articolo . L'unica differenza è che stiamo usando OTLP[Span|Metric|Log]Exporter per esportare i dati di telemetria nel dashboard Di aspirare.

Nota

L'osservabilità del kernel semantico non è ancora disponibile per Java.

Avviare il dashboard aspirare

Seguire le istruzioni riportate qui per avviare il dashboard. Quando il dashboard è in esecuzione, aprire un browser e passare a http://localhost:18888 per accedere al dashboard.

Run

Eseguire l'applicazione console con il comando seguente:

dotnet run

Eseguire lo script Python con il comando seguente:

python telemetry_aspire_dashboard_quickstart.py

Nota

L'osservabilità del kernel semantico non è ancora disponibile per Java.

Esaminare i dati di telemetria

Dopo aver eseguito l'applicazione, passare al dashboard per esaminare i dati di telemetria.

Suggerimento

Seguire questa guida per esplorare l'interfaccia Aspira dashboard.

Tracce

Se è la prima volta che si esegue l'applicazione dopo l'avvio del dashboard, si noterà che una traccia è la Traces scheda. Fare clic sulla traccia per visualizzare altri dettagli.

TracesOverview

Nei dettagli della traccia è possibile visualizzare l'intervallo che rappresenta la funzione prompt e l'intervallo che rappresenta il modello di completamento della chat. Fare clic sull'intervallo di completamento della chat per visualizzare i dettagli sulla richiesta e sulla risposta.

Suggerimento

È possibile filtrare gli attributi degli intervalli per trovare quello a cui si è interessati.

TracesDetails

Registri

Passare alla Structured scheda per visualizzare i log generati dall'applicazione. Fare riferimento a questa guida su come usare i log strutturati nel dashboard.

Passaggi successivi

Dopo aver restituito correttamente i dati di telemetria in Aspira dashboard, è possibile esplorare altre funzionalità del kernel semantico che consentono di monitorare e diagnosticare l'applicazione: