Condividi tramite


Configurare un cluster Big Data di SQL Server - Versione precedente alla CU9

Si applica a: SQL Server 2019 (15.x)

Importante

Il componente aggiuntivo per i cluster Big Data di Microsoft SQL Server 2019 verrà ritirato. Il supporto per i cluster Big Data di SQL Server 2019 terminerà il 28 febbraio 2025. Tutti gli utenti esistenti di SQL Server 2019 con Software Assurance saranno completamente supportati nella piattaforma e fino a quel momento il software continuerà a ricevere aggiornamenti cumulativi di SQL Server. Per altre informazioni, vedere il post di blog relativo all'annuncio e Opzioni per i Big Data nella piattaforma Microsoft SQL Server.

Nelle versioni CU8 e precedenti dei cluster Big Data di SQL Server 2019 è possibile configurare le impostazioni dei cluster Big Data in fase di distribuzione tramite il file di distribuzione bdc.json. L'istanza master SQL Server può essere configurata solo dopo la distribuzione usando mssql-conf.

Nota

Prima della versione CU9 e del supporto per i cluster abilitati per la configurazione, i cluster Big Data potevano essere configurati solo in fase di distribuzione, ad eccezione dell'istanza master SQL Server, che poteva essere configurata dopo la distribuzione solo usando mssql-conf. Per istruzioni su come configurare una versione CU9 e successiva, vedere Configurare un cluster Big Data di SQL Server.

Ambiti di configurazione

La configurazione di versioni di cluster Big Data precedenti alla versione CU9 prevede due livelli di ambito: service e resource. Anche la gerarchia delle impostazioni segue in questo ordine, dal più alto al più basso. I componenti BDC accetteranno il valore dell'impostazione definito nell'ambito più basso. Se l'impostazione non è definita in un ambito specificato, erediterà il valore dall'ambito padre superiore.

Ad esempio, è possibile definire il numero predefinito di core che il driver Spark userà nel pool di archiviazione e le risorse Sparkhead. Questa operazione può essere eseguita in due modi:

  • Specificare un valore di core predefinito nell'ambito del servizio Spark
  • Specificare un valore di core predefinito nell'ambito della risorsa storage-0 e sparkhead

Nel primo scenario tutte le risorse con ambito inferiore del servizio Spark (pool di archiviazione e Sparkhead) ereditano il numero predefinito di core dal valore predefinito del servizio Spark.

Nel secondo scenario ogni risorsa userà il valore definito nel rispettivo ambito.

Se il numero predefinito di core viene configurato sia nell'ambito del servizio sia in quello delle risorse, il valore con ambito risorsa eseguirà l'override del valore con ambito servizio, poiché si tratta dell'ambito configurato dell'utente più basso per l'impostazione specificata.

Per informazioni specifiche sulla configurazione, vedere gli articoli appropriati:

Configurare l'istanza master di SQL Server

Configurare l'istanza master di cluster Big Data di SQL Server.

Non è possibile configurare le impostazioni di configurazione del server per l'istanza master di SQL Server in fase di distribuzione. Questo articolo descrive una soluzione alternativa temporanea per configurare impostazioni quali l'edizione di SQL Server, l'abilitazione o la disabilitazione di SQL Server Agent, l'abilitazione di flag di traccia specifici o l'abilitazione o la disabilitazione del feedback dei clienti.

Per cambiare una qualsiasi di queste impostazioni, eseguire la procedura seguente:

  1. Creare un file mssql-custom.conf personalizzato che includa le impostazioni interessate. L'esempio seguente abilita SQL Server Agent e la telemetria, imposta un PID per l'edizione Enterprise e abilita il flag di traccia 1204.

    [sqlagent]
    enabled=true
    
    [telemetry]
    customerfeedback=true
    userRequestedLocalAuditDirectory = /tmp/audit
    
    [DEFAULT]
    pid = Enterprise
    
    [traceflag]
    traceflag0 = 1204
    
  2. Copiare il file mssql-custom.conf in /var/opt/mssql nel contenitore mssql-server nel pod master-0. Sostituire <namespaceName> con il nome del cluster Big Data.

    kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
    
  3. Riavviare l'istanza di SQL Server. Sostituire <namespaceName> con il nome del cluster Big Data.

    kubectl exec -it master-0  -c mssql-server -n <namespaceName> -- /bin/bash
    supervisorctl restart mssql-server
    exit
    

Importante

Se l'istanza master di SQL Server si trova in una configurazione di gruppi di disponibilità, copiare il file di mssql-custom.conf in tutti i pod master. Si noti che ogni riavvio provocherà un failover. È quindi necessario assicurarsi di pianificare l'esecuzione di questa attività in periodi di inattività.

Limitazioni note

  • La procedura precedente richiede autorizzazioni di amministratore del cluster Kubernetes
  • Non è possibile modificare le regole di confronto del server per l'istanza master di SQL Server del cluster Big Data dopo la distribuzione.

Configurare Apache Spark e Apache Hadoop

Per configurare Apache Spark e Apache Hadoop nei cluster Big Data, è necessario modificare il profilo del cluster al momento della distribuzione.

Un cluster Big Data ha quattro categorie di configurazione:

  • sql
  • hdfs
  • spark
  • gateway

sql, hdfs, spark, sql sono servizi. Ogni servizio è mappato alla categoria di configurazione con lo stesso nome. Tutte le configurazioni del gateway sono associate alla categoria gateway.

Ad esempio, tutte le configurazioni nel servizio hdfs appartengono alla categoria hdfs. Si noti che tutte le configurazioni di Hadoop (core-site), HDFS e Zookeeper appartengono alla categoria hdfs. Tutte le configurazioni di Livy, Spark, Yarn, Hive e Metastore appartengono alla categoria spark.

Configurazioni supportate elenca le proprietà di Apache Spark e Hadoop che è possibile configurare quando si distribuisce un cluster Big Data di SQL Server.

Le sezioni seguenti elencano le proprietà non è possibile modificare in un cluster:

Passaggi successivi

Configurare un cluster Big Data di SQL Server