Freigeben über


Konfigurationseigenschaften von Apache Spark und Apache Hadoop (HDFS)

Gilt für: SQL Server 2019 (15.x)

Wichtig

Das Microsoft SQL Server 2019-Big Data-Cluster-Add-On wird eingestellt. Der Support für SQL Server 2019-Big Data-Clusters endet am 28. Februar 2025. Alle vorhandenen Benutzer*innen von SQL Server 2019 mit Software Assurance werden auf der Plattform vollständig unterstützt, und die Software wird bis zu diesem Zeitpunkt weiterhin über kumulative SQL Server-Updates verwaltet. Weitere Informationen finden Sie im Ankündigungsblogbeitrag und unter Big Data-Optionen auf der Microsoft SQL Server-Plattform.

Big Data-Cluster unterstützt während und nach der Bereitstellung die Konfiguration von Apache Spark- und Hadoop-Komponenten im Dienst- und Ressourcenbereich. Big Data-Cluster verwendet für die meisten Einstellungen dieselben Standardkonfigurationswerte wie das jeweilige Open-Source-Projekt. Die Einstellungen, die geändert werden, sind unten zusammen mit einer Beschreibung und dem zugehörigen Standardwert aufgeführt. Abgesehen von der Gatewayressource gibt es keinen Unterschied zwischen den Einstellungen, die im Dienstbereich und im Ressourcenbereich konfigurierbar sind.

Alle möglichen Konfigurationen und die entsprechenden Standardwerte finden Sie auf der zugehörigen Apache-Dokumentationswebsite:

Die Einstellungen, die nicht konfiguriert werden können, sind ebenfalls unten aufgeführt.

Hinweis

Wenn Sie Spark in den Speicherpool einschließen möchten, legen Sie in der Konfigurationsdatei bdc.json den booleschen Wert includeSpark auf spec.resources.storage-0.spec.settings.spark fest. Die entsprechenden Anweisungen finden Sie unter Konfigurieren von Apache Spark und Apache Hadoop in Big Data-Clustern.

Spezifische Spark-Standardeinstellungen für Big Data-Cluster

Die folgenden Spark-Einstellungen weisen BDC-spezifische Standardwerte auf, können aber vom Benutzer konfiguriert werden. Vom System verwaltete Einstellungen sind nicht aufgeführt.

Einstellungsname Beschreibung Typ Standardwert
capacity-scheduler.yarn.scheduler.capacity.maximum-applications Die maximale Anzahl von Anwendungen im System, die gleichzeitig aktiv sein können (sowohl in Ausführung als auch ausstehend). INT 10000
capacity-scheduler.yarn.scheduler.capacity.resource-calculator Die ResourceCalculator-Implementierung, die zum Vergleichen von Ressourcen im Scheduler verwendet werden soll. Zeichenfolge org.apache.hadoop.yarn.util.resource.DominantResourceCalculator
capacity-scheduler.yarn.scheduler.capacity.root.queues Der Kapazitätsplaner mit vordefinierter Warteschlange namens „root“. Zeichenfolge default
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity Warteschlangenkapazität in Prozent (%) als absolute Mindestkapazität für Ressourcenwarteschlangen für die Warteschlange „root“. INT 100
spark-defaults-conf.spark.driver.cores Anzahl der Kerne, die für den Treiberprozess verwendet werden sollen (nur im Clustermodus). INT 1
spark-defaults-conf.spark.driver.memoryOverhead Die Menge an Speicher außerhalb des Heaps, die pro Treiber im Clustermodus zugewiesen werden soll. INT 384
spark-defaults-conf.spark.executor.instances Die Anzahl von Executors für die statische Zuordnung. INT 1
spark-defaults-conf.spark.executor.cores Die Anzahl von Kernen, die für jeden Executor verwendet werden soll. INT 1
spark-defaults-conf.spark.driver.memory Die Menge an Arbeitsspeicher, die für den Treiberprozess verwendet werden soll. Zeichenfolge 1g
spark-defaults-conf.spark.executor.memory Die Menge an Arbeitsspeicher, die pro Executorprozess verwendet werden soll. Zeichenfolge 1g
spark-defaults-conf.spark.executor.memoryOverhead Die Menge an Speicher außerhalb des Heaps, die pro Executor zugewiesen werden soll. INT 384
yarn-site.yarn.nodemanager.resource.memory-mb Die Menge an physischem Arbeitsspeicher (in MB), die für Container zugeordnet werden kann. INT 8192
yarn-site.yarn.scheduler.maximum-allocation-mb Die maximale Zuordnung für jede Containeranforderung in Resource Manager. INT 8192
yarn-site.yarn.nodemanager.resource.cpu-vcores Die Anzahl der CPU-Kerne, die für Container zugeordnet werden kann. INT 32
yarn-site.yarn.scheduler.maximum-allocation-vcores Die maximale Zuordnung für jede Containeranforderung in Resource Manager (in vCPU-Kernen). INT 8
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count Die Anzahl von Poolbenutzern für den Linux-Containerexecutor im sicheren Modus. INT 6
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent Maximaler Prozentsatz der Ressourcen im Cluster, die zum Ausführen von Anwendungsmastern verwendet werden können. float 0,1
yarn-site.yarn.nodemanager.container-executor.class Containerexecutors für ein bestimmtes Betriebssystem. Zeichenfolge org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor Das Vielfache der Warteschlangenkapazität, das konfiguriert werden kann, um einem einzelnen Benutzer den Erhalt weiterer Ressourcen zu gestatten. INT 1
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity Maximale Warteschlangenkapazität in Prozent (%) als Gleitkommawert ODER als absolute Höchstkapazität für Ressourcenwarteschlangen. Wenn Sie diesen Wert auf -1 festlegen, wird die maximale Kapazität auf 100 % festgelegt. INT 100
capacity-scheduler.yarn.scheduler.capacity.root.default.state Der Status der Warteschlange kann entweder „Wird ausgeführt“ oder „Beendet“ lauten. Zeichenfolge RUNNING
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime Maximale Lebensdauer einer Anwendung, die in eine Warteschlange eingereiht wird (in Sekunden). Bei einem Wert, der kleiner oder gleich null ist, wird die Einstellung deaktiviert. INT -1
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime Standardlebensdauer einer Anwendung, die in eine Warteschlange eingereiht wird (in Sekunden). Bei einem Wert, der kleiner oder gleich null ist, wird die Einstellung deaktiviert. INT -1
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay Anzahl der verpassten Planungsmöglichkeiten, nach der der CapacityScheduler versucht, rack-local-Container zu planen. INT 40
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay Anzahl der zusätzlich zu „node-locality-delay“ verpassten Planungsmöglichkeiten, nach der der CapacityScheduler versucht, off-switch-Container zu planen. INT -1
hadoop-env.HADOOP_HEAPSIZE_MAX Standardmäßige maximale Heapgröße aller Hadoop-JVM-Prozesse. INT 2048
yarn-env.YARN_RESOURCEMANAGER_HEAPSIZE Heapgröße von YARN ResourceManager. INT 2048
yarn-env.YARN_NODEMANAGER_HEAPSIZE Heapgröße von YARN NodeManager. INT 2048
mapred-env.HADOOP_JOB_HISTORYSERVER_HEAPSIZE Heapgröße von Hadoop JobHistoryServer. INT 2048
hive-env.HADOOP_HEAPSIZE Heapgröße von Hadoop für Hive. INT 2048
livy-conf.livy.server.session.timeout-check Überprüft das Sitzungszeitlimit für den Livy-Server. bool true
livy-conf.livy.server.session.timeout-check.skip-busy Skip-busy für die Überprüfung des Sitzungszeitlimits für den Livy-Server. bool true
livy-conf.livy.server.session.timeout Zeitlimit für Livy-Serversitzung in (ms/s/m | m/S/t/j). Zeichenfolge 2h
livy-conf.livy.server.yarn.poll-interval Abrufintervall für YARN in Livy-Server in (ms/s/m | m/S/t/j). Zeichenfolge 500ms
livy-conf.livy.rsc.jars Livy-RSC-JARs. Zeichenfolge local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar
livy-conf.livy.repl.jars Livy-REPL-JARs. Zeichenfolge local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar
livy-conf.livy.rsc.sparkr.package Livy-RSC-SparkR-Paket. Zeichenfolge hdfs:///system/livy/sparkr.zip
livy-env.LIVY_SERVER_JAVA_OPTS Java-Optionen für Livy-Server. Zeichenfolge -Xmx2g
spark-defaults-conf.spark.r.backendConnectionTimeout Verbindungszeitlimit in Sekunden, das vom R-Prozess bei Verbindung mit RBackend festgelegt wurde. INT 86.400
spark-defaults-conf.spark.pyspark.python Python-Option für Spark. Zeichenfolge /opt/bin/python3
spark-defaults-conf.spark.yarn.jars YARN-JARs. Zeichenfolge local:/opt/spark/jars/*
spark-history-server-conf.spark.history.fs.cleaner.maxAge Maximales Alter von Auftragsverlaufsdateien, bevor diese durch die Verlaufsbereinigung des Dateisystems gelöscht werden, in (ms/s/m | m/S/t/j). Zeichenfolge 7d
spark-history-server-conf.spark.history.fs.cleaner.interval Bereinigungsintervall für Spark-Verlauf in (ms/s/m | m/S/t/j). Zeichenfolge 12h
hadoop-env.HADOOP_CLASSPATH Legt den zusätzlichen Hadoop-Klassenpfad fest. Zeichenfolge
spark-env.SPARK_DAEMON_MEMORY Arbeitsspeicher für Spark-Daemon. Zeichenfolge 2g
yarn-site.yarn.log-aggregation.retain-seconds Wenn die Protokollaggregation aktiviert ist, legt diese Eigenschaft den Aufbewahrungszeitraum für Protokolle fest (in Sekunden). INT 604800
yarn-site.yarn.nodemanager.log-aggregation.compression-type Komprimierungstyp für die Protokollaggregation für YARN NodeManager. Zeichenfolge gz
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds Intervall in Sekunden für die Rollenüberwachung bei der NodeManager-Protokollaggregation. INT 3600
yarn-site.yarn.scheduler.minimum-allocation-mb Die Mindestzuordnung für jede Containeranforderung in Resource Manager (in MB). INT 512
yarn-site.yarn.scheduler.minimum-allocation-vcores Die Mindestzuordnung für jede Containeranforderung in Resource Manager (in vCPU-Kernen). INT 1
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms Gibt an, wie lange gewartet werden soll, bis ein Knoten-Manager als inaktiv erachtet wird. INT 180.000
yarn-site.yarn.resourcemanager.zk-timeout-ms Zeitlimit für Zookeeper-Sitzung in Millisekunden. INT 40.000
capacity-scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority Die ACL mit Personen, die Anwendungen mit konfigurierter Priorität übermitteln können. Beispiel: [user={name} group={name} max_priority={priorität} default_priority={priorität}]. Zeichenfolge *
includeSpark Boolescher Wert, der konfiguriert, ob Spark-Aufträge im Speicherpool ausgeführt werden können oder nicht. bool true
enableSparkOnK8s Boolescher Wert, der konfiguriert, ob Spark für K8s aktiviert werden soll. In diesem Fall werden Container für K8s im Spark-Kopfteil hinzugefügt. bool false
sparkVersion Die Version von Spark Zeichenfolge 2.4
spark-env.PYSPARK_ARCHIVES_PATH Pfad zu den in Spark-Aufträgen verwendeten pyspark-Archiv-JARs. Zeichenfolge local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip

In den folgenden Abschnitten werden die nicht unterstützten Konfigurationen aufgeführt.

Spezifische HDFS-Standardeinstellungen für Big Data-Cluster

Die folgenden HDFS-Einstellungen weisen BDC-spezifische Standardwerte auf, können aber vom Benutzer konfiguriert werden. Vom System verwaltete Einstellungen sind nicht aufgeführt.

Einstellungsname Beschreibung Typ Standardwert
hdfs-site.dfs.replication Standardmäßige Blockreplikation. INT 2
hdfs-site.dfs.namenode.provided.enabled Ermöglicht dem Namensknoten die Verarbeitung bereitgestellter Speicher. bool true
hdfs.site.dfs.namenode.mount.acls.enabled Legen Sie diese Einstellung auf „true“ fest, um ACLs (Zugriffssteuerungslisten) beim Einbinden von Remotespeichern zu erben bool false
hdfs-site.dfs.datanode.provided.enabled Ermöglicht dem Datenknoten die Verarbeitung bereitgestellter Speicher. bool true
hdfs-site.dfs.datanode.provided.volume.lazy.load Ermöglicht LazyLoading im Datenknoten für die bereitgestellten Speicher. bool true
hdfs-site.dfs.provided.aliasmap.inmemory.enabled Ermöglicht die In-Memory-Aliaszuordnung für bereitgestellte Speicher. bool true
hdfs-site.dfs.provided.aliasmap.class Die Klasse, die verwendet wird, um das Eingabeformat der Blöcke für bereitgestellte Speicher anzugeben. Zeichenfolge org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient
hdfs-site.dfs.namenode.provided.aliasmap.class Die Klasse, die verwendet wird, um das Eingabeformat der Blöcke für bereitgestellte Speicher für den Namensknoten anzugeben. Zeichenfolge org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient
hdfs-site.dfs.provided.aliasmap.load.retries Anzahl von Wiederholungsversuchen für den Datenknoten zum Laden der bereitgestellten Aliaszuordnung. INT 0
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size Die Batchgröße beim Durchlaufen der Datenbank, die die Aliaszuordnung unterstützt. INT 500
hdfs-site.dfs.datanode.provided.volume.readthrough Aktiviert Readthrough für bereitgestellte Speicher im Datenknoten. bool true
hdfs-site.dfs.provided.cache.capacity.mount Ermöglicht die Einbindung von Cachekapazität für bereitgestellte Speicher. bool true
hdfs-site.dfs.provided.overreplication.factor Faktor für übermäßige Replikation für bereitgestellte Speicher. Anzahl der Cacheblöcke auf dem BDC, die pro HDFS-Remoteblock erstellt werden float 1
hdfs-site.dfs.provided.cache.capacity.fraction Anteil der Cachekapazität für den bereitgestellten Speicher. Bruchteil der Gesamtkapazität im Cluster, der zum Zwischenspeichern von Daten aus bereitgestellten speichern verwendet werden kann float 0,01
hdfs-site.dfs.provided.cache.capacity.bytes Clusterkapazität, die als Cachespeicher für bereitgestellte Blöcke verwendet werden soll (in Bytes) INT -1
hdfs-site.dfs.ls.limit Begrenzt die Anzahl von über ls gedruckten Dateien. INT 500
hdfs-env.HDFS_NAMENODE_OPTS Optionen für HDFS-Namensknoten. Zeichenfolge -Dhadoop.security.logger=INFO,RFAS -Xmx2g
hdfs-env.HDFS_DATANODE_OPTS Optionen für HDFS-Datenknoten. Zeichenfolge -Dhadoop.security.logger=ERROR,RFAS -Xmx2g
hdfs-env.HDFS_ZKFC_OPTS HDFS-ZKFC-Optionen. Zeichenfolge -Xmx1g
hdfs-env.HDFS_JOURNALNODE_OPTS HDFS-JournalNode-Optionen. Zeichenfolge -Xmx2g
hdfs-env.HDFS_AUDIT_LOGGER Optionen für die HDFS-Überwachungsprotokollierung. Zeichenfolge INFO,RFAAUDIT
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels Hierarchieebenen für die Hadoop-LDAP-Suchgruppe der Hauptsite. INT 10
core-site.fs.permissions.umask-mode umask-Berechtigungsmodus. Zeichenfolge 077
core-site.hadoop.security.kms.client.failover.max.retries Maximale Anzahl von Wiederholungsversuchen für Clientfailover. INT 20
zoo-cfg.tickTime Taktzeit für die Zookeeper-Konfiguration. INT 2000
zoo-cfg.initLimit Initialisierungszeit für die Zookeeper-Konfiguration. INT 10
zoo-cfg.syncLimit Synchronisierungszeit für die Zookeeper-Konfiguration. INT 5
zoo-cfg.maxClientCnxns Maximale Anzahl von Clientverbindungen für die Zookeeper-Konfiguration. INT 60
zoo-cfg.minSessionTimeout Mindestzeitlimit von Sitzungen für die Zookeeper-Konfiguration. INT 4000
zoo-cfg.maxSessionTimeout Maximales Zeitlimit von Sitzungen für die Zookeeper-Konfiguration. INT 40.000
zoo-cfg.autopurge.snapRetainCount Anzahl beizubehaltender Momentaufnahmen für die Zookeeper-Konfiguration der automatischen Bereinigung. INT 3
zoo-cfg.autopurge.purgeInterval Löschintervall für die Zookeeper-Konfiguration der automatischen Bereinigung. INT 0
zookeeper-java-env.JVMFLAGS JVM-Flags für die Java-Umgebung in Zookeeper. Zeichenfolge -Xmx1G -Xms1G
zookeeper-log4j-properties.zookeeper.console.threshold Schwellenwert für die log4j-Konsole in Zookeeper. Zeichenfolge INFO
zoo-cfg.zookeeper.request.timeout Steuert das Zookeeper-Zeitlimit für Anforderungen in Millisekunden. INT 40.000
kms-site.hadoop.security.kms.encrypted.key.cache.size Cachegröße für verschlüsselten Schlüssel in Hadoop KMS. INT 500

Spezifische Gateway-Standardeinstellungen für Big Data-Cluster

Die folgenden Gatewayeinstellungen weisen BDC-spezifische Standardwerte auf, können aber vom Benutzer konfiguriert werden. Vom System verwaltete Einstellungen sind nicht aufgeführt. Gatewayeinstellungen können nur im Bereich Ressourcen konfiguriert werden.

Einstellungsname Beschreibung Typ Standardwert
gateway-site.gateway.httpclient.socketTimeout Socketzeitlimit für HTTP-Client im Gateway in (ms/s/m). Zeichenfolge 90s
gateway-site.sun.security.krb5.debug Debuggen für Kerberos-Sicherheit. bool true
knox-env.KNOX_GATEWAY_MEM_OPTS Arbeitsspeicheroptionen für Knox-Gateway. Zeichenfolge -Xmx2g

Nicht unterstützte Spark-Konfigurationen

Die folgenden spark-Konfigurationen werden nicht unterstützt und können im Kontext des Big Data-Clusters nicht geändert werden.

Category Unterkategorie Datei Nicht unterstützte Konfigurationen
yarn-site yarn-site.xml yarn.log-aggregation-enable
yarn.log.server.url
yarn.nodemanager.pmem-check-enabled
yarn.nodemanager.vmem-check-enabled
yarn.nodemanager.aux-services
yarn.resourcemanager.address
yarn.nodemanager.address
yarn.client.failover-no-ha-proxy-provider
yarn.client.failover-proxy-provider
yarn.http.policy
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user
yarn.acl.enable
yarn.admin.acl
yarn.resourcemanager.hostname
yarn.resourcemanager.principal
yarn.resourcemanager.keytab
yarn.resourcemanager.webapp.spnego-keytab-file
yarn.resourcemanager.webapp.spnego-principal
yarn.nodemanager.principal
yarn.nodemanager.keytab
yarn.nodemanager.webapp.spnego-keytab-file
yarn.nodemanager.webapp.spnego-principal
yarn.resourcemanager.ha.enabled
yarn.resourcemanager.cluster-id
yarn.resourcemanager.zk-address
yarn.resourcemanager.ha.rm-ids
yarn.resourcemanager.hostname.*
capacity-scheduler capacity-scheduler.xml yarn.scheduler.capacity.root.acl_submit_applications
yarn.scheduler.capacity.root.acl_administer_queue
yarn.scheduler.capacity.root.default.acl_application_max_priority
yarn-env yarn-env.sh
spark-defaults-conf spark-defaults.conf spark.yarn.archive
spark.yarn.historyServer.address
spark.eventLog.enabled
spark.eventLog.dir
spark.sql.warehouse.dir
spark.sql.hive.metastore.version
spark.sql.hive.metastore.jars
spark.extraListeners
spark.metrics.conf
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.ui.enabled
spark-env spark-env.sh SPARK_NO_DAEMONIZE
SPARK_DIST_CLASSPATH
spark-history-server-conf spark-history-server.conf spark.history.fs.logDirectory
spark.ui.proxyBase
spark.history.fs.cleaner.enabled
spark.ssl.enabled
spark.authenticate
spark.network.crypto.enabled
spark.ssl.keyStore
spark.ssl.keyStorePassword
spark.history.kerberos.enabled
spark.history.kerberos.principal
spark.history.kerberos.keytab
spark.ui.filters
spark.acls.enable
spark.history.ui.acls.enable
spark.history.ui.admin.acls
spark.history.ui.admin.acls.groups
livy-conf livy.conf livy.keystore
livy.keystore.password
livy.spark.master
livy.spark.deploy-mode
livy.rsc.jars
livy.repl.jars
livy.rsc.pyspark.archives
livy.rsc.sparkr.package
livy.repl.enable-hive-context
livy.superusers
livy.server.auth.type
livy.server.launch.kerberos.keytab
livy.server.launch.kerberos.principal
livy.server.auth.kerberos.principal
livy.server.auth.kerberos.keytab
livy.impersonation.enabled
livy.server.access-control.enabled
livy.server.access-control.*
livy-env livy-env.sh
hive-site hive-site.xml javax.jdo.option.ConnectionURL
javax.jdo.option.ConnectionDriverName
javax.jdo.option.ConnectionUserName
javax.jdo.option.ConnectionPassword
hive.metastore.uris
hive.metastore.pre.event.listeners
hive.security.authorization.enabled
hive.security.metastore.authenticator.manager
hive.security.metastore.authorization.manager
hive.metastore.use.SSL
hive.metastore.keystore.path
hive.metastore.keystore.password
hive.metastore.truststore.path
hive.metastore.truststore.password
hive.metastore.kerberos.keytab.file
hive.metastore.kerberos.principal
hive.metastore.sasl.enabled
hive.metastore.execute.setugi
hive.cluster.delegation.token.store.class
hive-env hive-env.sh

Nicht unterstützte HDFS-Konfigurationen

Die folgenden hdfs-Konfigurationen werden nicht unterstützt und können im Kontext des Big Data-Clusters nicht geändert werden.

Category Unterkategorie Datei Nicht unterstützte Konfigurationen
core-site core-site.xml fs.defaultFS
ha.zookeeper.quorum
hadoop.tmp.dir
hadoop.rpc.protection
hadoop.security.auth_to_local
hadoop.security.authentication
hadoop.security.authorization
hadoop.http.authentication.simple.anonymous.allowed
hadoop.http.authentication.type
hadoop.http.authentication.kerberos.principal
hadoop.http.authentication.kerberos.keytab
hadoop.http.filter.initializers
hadoop.security.group.mapping.*
hadoop.security.key.provider.path
mapred-env mapred-env.sh
hdfs-site hdfs-site.xml dfs.namenode.name.dir
dfs.datanode.data.dir
dfs.namenode.acls.enabled
dfs.namenode.datanode.registration.ip-hostname-check
dfs.client.retry.policy.enabled
dfs.permissions.enabled
dfs.nameservices
dfs.ha.namenodes.nmnode-0
dfs.namenode.rpc-address.nmnode-0.*
dfs.namenode.shared.edits.dir
dfs.ha.automatic-failover.enabled
dfs.ha.fencing.methods
dfs.journalnode.edits.dir
dfs.client.failover.proxy.provider.nmnode-0
dfs.namenode.http-address
dfs.namenode.httpS-address
dfs.http.policy
dfs.encrypt.data.transfer
dfs.block.access.token.enable
dfs.data.transfer.protection
dfs.encrypt.data.transfer.cipher.suites
dfs.https.port
dfs.namenode.keytab.file
dfs.namenode.kerberos.principal
dfs.namenode.kerberos.internal.spnego.principal
dfs.datanode.data.dir.perm
dfs.datanode.address
dfs.datanode.http.address
dfs.datanode.ipc.address
dfs.datanode.https.address
dfs.datanode.keytab.file
dfs.datanode.kerberos.principal
dfs.journalnode.keytab.file
dfs.journalnode.kerberos.principal
dfs.journalnode.kerberos.internal.spnego.principal
dfs.web.authentication.kerberos.keytab
dfs.web.authentication.kerberos.principal
dfs.webhdfs.enabled
dfs.permissions.superusergroup
hdfs-env hdfs-env.sh HADOOP_HEAPSIZE_MAX
zoo-cfg zoo.cfg secureClientPort
clientPort
dataDir
dataLogDir
4lw.commands.whitelist
zookeeper-java-env java.env ZK_LOG_DIR
SERVER_JVMFLAGS
zookeeper-log4j-properties log4j.properties (zookeeper) log4j.rootLogger
log4j.appender.CONSOLE.*

Hinweis

In diesem Artikel wird der Begriff Whitelist verwendet, der in diesem Kontext von Microsoft als unangemessen eingestuft wird. Der Begriff wird in diesem Artikel verwendet, weil er derzeit in der Software verwendet wird. Sobald der Begriff aus der Software entfernt wird, wird er auch aus dem Artikel entfernt.

Nicht unterstützte gateway-Konfigurationen

Die folgenden gateway-Konfigurationen werden nicht unterstützt und können im Kontext des Big Data-Clusters nicht geändert werden.

Category Unterkategorie Datei Nicht unterstützte Konfigurationen
gateway-site gateway-site.xml gateway.port
gateway.path
gateway.gateway.conf.dir
gateway.hadoop.kerberos.secured
java.security.krb5.conf
java.security.auth.login.config
gateway.websocket.feature.enabled
gateway.scope.cookies.feature.enabled
ssl.exclude.protocols
ssl.include.ciphers

Nächste Schritte

Konfigurieren eines SQL Server Big Data-Clusters