read_files
função com valor de tabela
Aplica-se a: Databricks SQL Databricks Runtime 13.3 LTS e superior
Lê arquivos em um local fornecido e retorna os dados em forma de tabela.
Suporta leitura JSON
, CSV
, XML
, TEXT
, BINARYFILE
, PARQUET
, AVRO
, e ORC
formatos de arquivo.
Pode detetar o formato de arquivo automaticamente e inferir um esquema unificado em todos os arquivos.
Sintaxe
read_files(path [, option_key => option_value ] [...])
Argumentos
Esta função requer a invocação de parâmetro nomeado para as teclas de opção.
-
path
: ASTRING
com o URI da localização dos dados. Suporta leitura do Azure Data Lake Storage Gen2 ('abfss://'
), S3 (s3://
) e Google Cloud Storage ('gs://'
). Pode conter globs. Consulte Descoberta de arquivos para obter mais detalhes. -
option_key
: O nome da opção a ser configurada. Você precisa usar backticks (') para opções que contêm pontos (.
). -
option_value
: Uma expressão constante para definir a opção. Aceita literais e funções escalares.
Devoluções
Uma tabela composta pelos dados dos arquivos lidos sob o dado path
.
Descoberta de arquivos
read_files
É capaz de ler um arquivo individual ou ler arquivos em um diretório fornecido.
read_files
Descobre todos os arquivos no diretório fornecido recursivamente, a menos que um glob seja fornecido, o que instrui a recursar em um padrão de read_files
diretório específico.
Filtrando diretórios ou arquivos usando padrões glob
Os padrões de Glob podem ser usados para filtrar diretórios e arquivos quando fornecidos no caminho.
Padrão | Description |
---|---|
? |
Corresponde a qualquer caractere |
* |
Corresponde a zero ou mais caracteres |
[abc] |
Corresponde a um único caractere do conjunto de caracteres {a,b,c}. |
[a-z] |
Corresponde a um único caractere do intervalo de caracteres {a... z}. |
[^a] |
Corresponde a um único caractere que não é do conjunto de caracteres ou intervalo {a}. Observe que o ^ caractere deve ocorrer imediatamente à direita do colchete de abertura. |
{ab,cd} |
Corresponde a uma string do conjunto de strings {ab, cd}. |
{ab,c{de, fh}} |
Corresponde a uma string do conjunto de strings {ab, cde, cfh}. |
read_files
usa o globber estrito do Auto Loader ao descobrir arquivos com globs. Isso é configurado pela useStrictGlobber
opção. Quando o globber estrito é desativado, as barras à direita (/
) são descartadas e um padrão de estrela como /*/
pode se expandir para descobrir vários diretórios. Veja os exemplos abaixo para ver a diferença de comportamento.
Padrão | Caminho do ficheiro | Globber estrito desativado | Globber estrito ativado |
---|---|---|---|
/a/b |
/a/b/c/file.txt |
Sim | Sim |
/a/b |
/a/b_dir/c/file.txt |
Não | Não |
/a/b |
/a/b.txt |
Não | Não |
/a/b/ |
/a/b.txt |
Não | Não |
/a/*/c/ |
/a/b/c/file.txt |
Sim | Sim |
/a/*/c/ |
/a/b/c/d/file.txt |
Sim | Sim |
/a/*/d/ |
/a/b/c/d/file.txt |
Sim | Não |
/a/*/c/ |
/a/b/x/y/c/file.txt |
Sim | Não |
/a/*/c |
/a/b/c_file.txt |
Sim | Não |
/a/*/c/ |
/a/b/c_file.txt |
Sim | Não |
/a/*/c |
/a/b/cookie/file.txt |
Sim | Não |
/a/b* |
/a/b.txt |
Sim | Sim |
/a/b* |
/a/b/file.txt |
Sim | Sim |
/a/{0.txt,1.txt} |
/a/0.txt |
Sim | Sim |
/a/*/{0.txt,1.txt} |
/a/0.txt |
Não | Não |
/a/b/[cde-h]/i/ |
/a/b/c/i/file.txt |
Sim | Sim |
Inferência do esquema
O esquema dos arquivos pode ser explicitamente fornecido com read_files
a schema
opção. Quando o esquema não é fornecido, read_files
tenta inferir um esquema unificado nos arquivos descobertos, o que requer a leitura de todos os arquivos, a menos que uma LIMIT
instrução seja usada. Mesmo ao usar uma LIMIT
consulta, um conjunto maior de arquivos do que o necessário pode ser lido para retornar um esquema mais representativo dos dados. O Databricks adiciona automaticamente uma LIMIT
instrução para SELECT
consultas em blocos de anotações e no editor SQL, se um usuário não tiver fornecido uma.
A schemaHints
opção pode ser usada para corrigir subconjuntos do esquema inferido. Consulte Substituir inferência de esquema com dicas de esquema para obter mais detalhes.
A rescuedDataColumn
é fornecido por padrão para recuperar quaisquer dados que não correspondam ao esquema. Consulte O que é a coluna de dados resgatados? para obter mais detalhes. Você pode soltar o rescuedDataColumn
definindo a opção schemaEvolutionMode => 'none'
.
Inferência de esquema de partição
read_files
também pode inferir colunas de particionamento se os arquivos forem armazenados em diretórios particionados no estilo Hive, ou seja /column_name=column_value/
, . Se um schema
for fornecido, as colunas de partição descobertas usarão os tipos fornecidos no schema
. Se as colunas de partição não fizerem parte do fornecido schema
, as colunas de partição inferidas serão ignoradas.
Se existir uma coluna no esquema de partição e nas colunas de dados, o valor lido a partir do valor da partição será usado em vez do valor de dados. Se você quiser ignorar os valores provenientes do diretório e usar a coluna de dados, você pode fornecer a lista de colunas de partição em uma lista separada por vírgulas com a partitionColumns
opção.
A partitionColumns
opção também pode ser usada para instruir read_files
sobre quais colunas descobertas devem ser incluídas no esquema inferido final. Fornecer uma cadeia de caracteres vazia ignora todas as colunas de partição.
A schemaHints
opção também pode ser fornecida para substituir o esquema inferido para uma coluna de partição.
Os TEXT
formatos e BINARYFILE
têm um esquema fixo, mas read_files
também tentam inferir particionamento para esses formatos quando possível.
Uso em tabelas de streaming
read_files
pode ser usado em tabelas de streaming para ingerir arquivos no Delta Lake.
read_files
aproveita o Auto Loader quando usado em uma consulta de tabela de streaming. Você deve usar a STREAM
palavra-chave com read_files
. Consulte O que é o Auto Loader? para obter mais detalhes.
Quando usado em uma consulta de streaming, read_files
usa uma amostra dos dados para inferir o esquema e pode evoluir o esquema à medida que processa mais dados. Consulte Configurar inferência e evolução de esquema no Auto Loader para obter mais detalhes.
Opções
- Opções básicas
- Opções genéricas
-
JSON
Opções -
CSV
Opções -
XML
Opções -
PARQUET
Opções -
AVRO
Opções -
BINARYFILE
Opções -
TEXT
Opções -
ORC
Opções - Opções de streaming
Opções básicas
Opção |
---|
format Tipo: String O formato de arquivo de dados no caminho de origem. Auto-inferido se não fornecido. Os valores permitidos incluem: - avro : Arquivo Avro- binaryFile : Arquivo binário- csv : Ler ficheiros CSV- json : Arquivo JSON- orc : Arquivo ORC- parquet : Ler arquivos do Parquet usando o Azure Databricks- text : Arquivos de texto- xml : Ler e gravar arquivos XMLValor padrão: Nenhum |
inferColumnTypes Tipo: Boolean Se é necessário inferir tipos exatos de coluna ao aproveitar a inferência de esquema. Por padrão, as colunas são inferidas ao inferir conjuntos de dados JSON e CSV. Consulte inferência de esquema para obter mais detalhes. Observe que isso é o oposto do padrão do Auto Loader. Valor predefinido: true |
partitionColumns Tipo: String Uma lista separada por vírgulas de colunas de partição no estilo Hive que você gostaria de inferir da estrutura de diretórios dos arquivos. As colunas de partição no estilo Hive são pares chave-valor combinados por um sinal de igualdade, como <base-path>/a=x/b=1/c=y/file.format . Neste exemplo, as colunas de partição são a , b e c . Por padrão, essas colunas serão adicionadas automaticamente ao seu esquema se você estiver usando a inferência de esquema e fornecer o <base-path> para carregar dados. Se você fornecer um esquema, o Auto Loader espera que essas colunas sejam incluídas no esquema. Se você não quiser essas colunas como parte do seu esquema, você pode especificar "" para ignorar essas colunas. Além disso, você pode usar essa opção quando quiser que as colunas infiram o caminho do arquivo em estruturas de diretório complexas, como o exemplo abaixo:<base-path>/year=2022/week=1/file1.csv <base-path>/year=2022/month=2/day=3/file2.csv <base-path>/year=2022/month=2/day=4/file3.csv Especificando cloudFiles.partitionColumns como year,month,day retornaráyear=2022 para file1.csv , mas as month colunas e day serão null .month e day será analisado corretamente para file2.csv e file3.csv .Valor padrão: Nenhum |
schemaHints Tipo: String Informações de esquema que você fornece ao Auto Loader durante a inferência do esquema. Consulte as dicas de esquema para obter mais detalhes. Valor padrão: Nenhum |
useStrictGlobber Tipo: Boolean Se deve usar um globber estrito que corresponda ao comportamento de globbing padrão de outras fontes de arquivos no Apache Spark. Consulte Padrões comuns de carregamento de dados para obter mais detalhes. Disponível no Databricks Runtime 12.2 LTS e superior. Observe que isso é o oposto do padrão para Auto Loader. Valor predefinido: true |
Opções genéricas
As opções a seguir se aplicam a todos os formatos de arquivo.
Opção |
---|
ignoreCorruptFiles Tipo: Boolean Se deve ignorar arquivos corrompidos. Se verdadeiro, os trabalhos do Spark continuarão a ser executados ao encontrar arquivos corrompidos e o conteúdo que foi lido ainda será retornado. Observável como numSkippedCorruptFiles naoperationMetrics coluna da história do Lago Delta. Disponível em Databricks Runtime 11.3 LTS e superior.Valor predefinido: false |
ignoreMissingFiles Tipo: Boolean Se deve ignorar ficheiros em falta. Se verdadeiro, os trabalhos do Spark continuarão a ser executados ao encontrar arquivos ausentes e o conteúdo que foi lido ainda será retornado. Disponível em Databricks Runtime 11.3 LTS e superior. Valor padrão: false (true for COPY INTO ) |
modifiedAfter Tipo: Timestamp String , por exemplo, 2021-01-01 00:00:00.000000 UTC+0 Um carimbo de data/hora opcional para ingerir arquivos que tenham um carimbo de data/hora de modificação após o carimbo de data/hora fornecido. Valor padrão: Nenhum |
modifiedBefore Tipo: Timestamp String , por exemplo, 2021-01-01 00:00:00.000000 UTC+0 Um carimbo de data/hora opcional para ingerir arquivos que tenham um carimbo de data/hora de modificação antes do carimbo de data/hora fornecido. Valor padrão: Nenhum |
pathGlobFilter ou fileNamePattern Tipo: String Um padrão de glob potencial a ser fornecido para a escolha de arquivos. Equivalente a PATTERN em COPY INTO .
fileNamePattern pode ser usado em read_files .Valor padrão: Nenhum |
recursiveFileLookup Tipo: Boolean Se a inferência de partição deve ser ignorada durante a inferência de esquema. Isso não afeta quais arquivos são carregados. Valor predefinido: false |
JSON
Opções
Opção |
---|
allowBackslashEscapingAnyCharacter Tipo: Boolean Se deve permitir que as barras invertidas escapem de qualquer personagem que a consiga. Se não estiver habilitado, somente os caracteres explicitamente listados pela especificação JSON poderão ser escapados. Valor predefinido: false |
allowComments Tipo: Boolean Se deve permitir o uso de comentários de estilo Java, C e C++ ( '/' , '*' e '//' variedades) dentro do conteúdo analisado ou não.Valor predefinido: false |
allowNonNumericNumbers Tipo: Boolean Se o conjunto de tokens não-a-number ( NaN ) deve ser permitido como valores de número flutuante legal.Valor predefinido: true |
allowNumericLeadingZeros Tipo: Boolean Permitir ou não que números integrais comecem com zeros adicionais (ignorantes) (por exemplo, 000001 ).Valor predefinido: false |
allowSingleQuotes Tipo: Boolean Se deve permitir o uso de aspas simples (apóstrofo, caractere '\' ) para citar cadeias de caracteres (nomes e valores String).Valor predefinido: true |
allowUnquotedControlChars Tipo: Boolean Se as cadeias de caracteres JSON devem conter caracteres de controle sem escape (caracteres ASCII com valor inferior a 32, incluindo caracteres de tabulação e alimentação de linha) ou não. Valor predefinido: false |
allowUnquotedFieldNames Tipo: Boolean Se deve permitir o uso de nomes de campos não citados (que são permitidos pelo JavaScript, mas não pela especificação JSON). Valor predefinido: false |
badRecordsPath Tipo: String O caminho para armazenar arquivos para gravar as informações sobre registros JSON incorretos. Valor padrão: Nenhum |
columnNameOfCorruptRecord Tipo: String A coluna para armazenar registros que estão malformados e não podem ser analisados. Se o mode para análise estiver definido como DROPMALFORMED , esta coluna estará vazia.Valor predefinido: _corrupt_record |
dateFormat Tipo: String O formato para analisar cadeias de caracteres de data. Valor predefinido: yyyy-MM-dd |
dropFieldIfAllNull Tipo: Boolean Se as colunas de todos os valores nulos ou matrizes e estruturas vazias devem ser ignoradas durante a inferência do esquema. Valor predefinido: false |
encoding ou charset Tipo: String O nome da codificação dos arquivos JSON. Consulte java.nio.charset.Charset a lista de opções. Você não pode usar UTF-16 e UTF-32 quando multiline é true .Valor predefinido: UTF-8 |
inferTimestamp Tipo: Boolean Se deve tentar inferir cadeias de caracteres de carimbo de data/hora como um TimestampType arquivo . Quando definido comotrue , a inferência do esquema pode levar visivelmente mais tempo. Você deve habilitar cloudFiles.inferColumnTypes o uso com o Auto Loader.Valor predefinido: false |
lineSep Tipo: String Uma cadeia de caracteres entre dois registros JSON consecutivos. Valor padrão: Nenhum, que abrange \r , \r\n e \n |
locale Tipo: String Um java.util.Locale identificador. Influencia a data padrão, o carimbo de data/hora e a análise decimal dentro do JSON.Valor predefinido: US |
mode Tipo: String Modo de análise em torno da manipulação de registros malformados. Um dos 'PERMISSIVE' ,'DROPMALFORMED' , ou 'FAILFAST' .Valor predefinido: PERMISSIVE |
multiLine Tipo: Boolean Se os registros JSON abrangem várias linhas. Valor predefinido: false |
prefersDecimal Tipo: Boolean Tenta inferir cadeias de caracteres em DecimalType vez de float ou double type quando possível. Você também deve usar a inferência de esquema, habilitandoinferSchema ou usando cloudFiles.inferColumnTypes com Auto Loader.Valor predefinido: false |
primitivesAsString Tipo: Boolean Se deve inferir tipos primitivos como números e booleanos como StringType .Valor predefinido: false |
readerCaseSensitive Tipo: Boolean Especifica o comportamento de diferenciação de maiúsculas e minúsculas quando rescuedDataColumn está habilitado. Se verdadeiro, resgate as colunas de dados cujos nomes diferem por caso do esquema; caso contrário, leia os dados de forma que não diferencie maiúsculas de minúsculas. Disponível no Databricks Runtime13.3 e superior. Valor predefinido: true |
rescuedDataColumn Tipo: String Se todos os dados que não podem ser analisados devem ser analisados devido a uma incompatibilidade de tipo de dados ou incompatibilidade de esquema (incluindo caixa de coluna) para uma coluna separada. Esta coluna é incluída por padrão ao usar o Auto Loader. Para obter mais detalhes, consulte O que é a coluna de dados resgatados?. Valor padrão: Nenhum |
singleVariantColumn Tipo: String Se deseja ingerir o documento JSON inteiro, analisado em uma única coluna Variant com a cadeia de caracteres fornecida como o nome da coluna. Se desativado, os campos JSON serão ingeridos em suas próprias colunas. Valor padrão: Nenhum |
timestampFormat Tipo: String O formato para analisar cadeias de caracteres de carimbo de data/hora. Valor predefinido: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] |
timeZone Tipo: String O java.time.ZoneId a ser usado ao analisar carimbos de data/hora e datas.Valor padrão: Nenhum |
CSV
Opções
Opção |
---|
badRecordsPath Tipo: String O caminho para armazenar arquivos para gravar as informações sobre registros CSV incorretos. Valor padrão: Nenhum |
charToEscapeQuoteEscaping Tipo: Char O personagem usado para escapar do personagem usado para escapar de citações. Por exemplo, para o seguinte registo: [ " a\\", b ] - Se o caractere a escapar '\' estiver indefinido, o registro não será analisado. O analisador lerá caracteres: [a],[\],["],[,],[ ],[b] e lançará um erro porque não consegue encontrar uma citação de fechamento.- Se o caractere a escapar for '\' definido como '\' , o registro será lido com 2 valores: [a\] e [b] .Valor predefinido: '\0' |
columnNameOfCorruptRecord Suportado para Auto Loader. Não suportado para COPY INTO .Tipo: String A coluna para armazenar registros que estão malformados e não podem ser analisados. Se o mode para análise estiver definido como DROPMALFORMED , esta coluna estará vazia.Valor predefinido: _corrupt_record |
comment Tipo: Char Define o caractere que representa um comentário de linha quando encontrado no início de uma linha de texto. Use '\0' para desativar o salto de comentários.Valor predefinido: '\u0000' |
dateFormat Tipo: String O formato para analisar cadeias de caracteres de data. Valor predefinido: yyyy-MM-dd |
emptyValue Tipo: String Representação de cadeia de caracteres de um valor vazio. Valor predefinido: "" |
encoding ou charset Tipo: String O nome da codificação dos arquivos CSV. Consulte java.nio.charset.Charset a lista de opções.
UTF-16 e UTF-32 não pode ser usado quando multiline é true .Valor predefinido: UTF-8 |
enforceSchema Tipo: Boolean Se deve aplicar à força o esquema especificado ou inferido aos arquivos CSV. Se a opção estiver ativada, os cabeçalhos dos arquivos CSV serão ignorados. Esta opção é ignorada por padrão ao usar o Auto Loader para resgatar dados e permitir a evolução do esquema. Valor predefinido: true |
escape Tipo: Char O caractere de escape a ser usado ao analisar os dados. Valor predefinido: '\' |
header Tipo: Boolean Se os arquivos CSV contêm um cabeçalho. O Auto Loader assume que os arquivos têm cabeçalhos ao inferir o esquema. Valor predefinido: false |
ignoreLeadingWhiteSpace Tipo: Boolean Se os espaços em branco à esquerda devem ser ignorados para cada valor analisado. Valor predefinido: false |
ignoreTrailingWhiteSpace Tipo: Boolean Se deve ignorar espaços em branco à direita para cada valor analisado. Valor predefinido: false |
inferSchema Tipo: Boolean Se é necessário inferir os tipos de dados dos registros CSV analisados ou assumir que todas as colunas são de StringType . Requer uma passagem adicional sobre os dados, se definido como true . Para Auto Loader, use cloudFiles.inferColumnTypes em vez disso.Valor predefinido: false |
lineSep Tipo: String Uma cadeia de caracteres entre dois registros CSV consecutivos. Valor padrão: Nenhum, que abrange \r , \r\n e \n |
locale Tipo: String Um java.util.Locale identificador. Influencia a data padrão, o carimbo de data/hora e a análise decimal dentro do CSV.Valor predefinido: US |
maxCharsPerColumn Tipo: Int Número máximo de caracteres esperados de um valor a ser analisado. Pode ser usado para evitar erros de memória. O padrão é , o -1 que significa ilimitado.Valor predefinido: -1 |
maxColumns Tipo: Int O limite rígido de quantas colunas um registro pode ter. Valor predefinido: 20480 |
mergeSchema Tipo: Boolean Se deve inferir o esquema em vários arquivos e mesclar o esquema de cada arquivo. Ativado por padrão para o Auto Loader ao inferir o esquema. Valor predefinido: false |
mode Tipo: String Modo de análise em torno da manipulação de registros malformados. Um dos 'PERMISSIVE' ,'DROPMALFORMED'
'FAILFAST' e .Valor predefinido: PERMISSIVE |
multiLine Tipo: Boolean Se os registros CSV abrangem várias linhas. Valor predefinido: false |
nanValue Tipo: String A representação de cadeia de caracteres de um valor diferente de um número ao analisar FloatType e DoubleType colunas.Valor predefinido: "NaN" |
negativeInf Tipo: String A representação de cadeia de caracteres do infinito negativo ao analisar FloatType ou DoubleType colunas.Valor predefinido: "-Inf" |
nullValue Tipo: String Representação de cadeia de caracteres de um valor nulo. Valor predefinido: "" |
parserCaseSensitive (preterido)Tipo: Boolean Durante a leitura de arquivos, se as colunas declaradas no cabeçalho devem ser alinhadas com o esquema de forma sensível a maiúsculas e minúsculas. Isso é true por padrão para o Auto Loader. As colunas que diferem por maiúsculas e minúsculas rescuedDataColumn serão resgatadas no se habilitado. Esta opção foi preterida em favor do readerCaseSensitive .Valor predefinido: false |
positiveInf Tipo: String A representação de cadeia de caracteres do infinito positivo ao analisar FloatType ou DoubleType colunas.Valor predefinido: "Inf" |
preferDate Tipo: Boolean Tenta inferir cadeias de caracteres como datas em vez de carimbo de data/hora quando possível. Você também deve usar a inferência de esquema, habilitando inferSchema ou usandocloudFiles.inferColumnTypes com Auto Loader.Valor predefinido: true |
quote Tipo: Char O caractere usado para escapar de valores onde o delimitador de campo é parte do valor. Valor predefinido: " |
readerCaseSensitive Tipo: Boolean Especifica o comportamento de diferenciação de maiúsculas e minúsculas quando rescuedDataColumn está habilitado. Se verdadeiro, resgate as colunas de dados cujos nomes diferem por caso do esquema; caso contrário, leia os dados de forma que não diferencie maiúsculas de minúsculas.Valor predefinido: true |
rescuedDataColumn Tipo: String Se todos os dados que não podem ser analisados devem ser analisados devido a: uma incompatibilidade de tipo de dados e incompatibilidade de esquema (incluindo caixa de coluna) para uma coluna separada. Esta coluna é incluída por padrão ao usar o Auto Loader. Para obter mais detalhes, consulte O que é a coluna de dados resgatados?. Valor padrão: Nenhum |
sep ou delimiter Tipo: String A cadeia de caracteres separadora entre colunas. Valor predefinido: "," |
skipRows Tipo: Int O número de linhas desde o início do arquivo CSV que devem ser ignoradas (incluindo linhas comentadas e vazias). Se header for verdadeiro, o cabeçalho será a primeira linha não ignorada e não comentada.Valor predefinido: 0 |
timestampFormat Tipo: String O formato para analisar cadeias de caracteres de carimbo de data/hora. Valor predefinido: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] |
timeZone Tipo: String O java.time.ZoneId a ser usado ao analisar carimbos de data/hora e datas.Valor padrão: Nenhum |
unescapedQuoteHandling Tipo: String A estratégia para lidar com citações sem escapar. Opções permitidas: - STOP_AT_CLOSING_QUOTE : Se forem encontradas cotações sem escape na entrada, acumule o caractere de cotação e prossiga analisando o valor como um valor cotado, até que uma cotação de fechamento seja encontrada.- BACK_TO_DELIMITER : Se forem encontradas cotações sem escape na entrada, considere o valor como um valor não cotado. Isso fará com que o analisador acumule todos os caracteres do valor analisado atual até que o delimitador definido por sep seja encontrado. Se nenhum delimitador for encontrado no valor, o analisador continuará acumulando caracteres da entrada até que um delimitador ou terminação de linha seja encontrado.- STOP_AT_DELIMITER : Se forem encontradas cotações sem escape na entrada, considere o valor como um valor não cotado. Isso fará com que o analisador acumule todos os caracteres até que o delimitador definido por sep , ou uma terminação de linha seja encontrada na entrada.- SKIP_VALUE : Se forem encontradas aspas sem escape na entrada, o conteúdo analisado para o valor dado será ignorado (até que o próximo delimitador seja encontrado) e o valor definido em nullValue será produzido.- RAISE_ERROR : Se forem encontradas cotações sem escape na entrada, umTextParsingException serão atirados.Valor predefinido: STOP_AT_DELIMITER |
XML
Opções
Opção | Description | Scope |
---|---|---|
rowTag |
A marca de linha dos arquivos XML a serem tratados como uma linha. No exemplo XML <books> <book><book>...<books> , o valor apropriado é book . Esta é uma opção necessária. |
lido |
samplingRatio |
Define uma fração de linhas usadas para inferência de esquema. As funções internas XML ignoram essa opção. Padrão: 1.0 . |
lido |
excludeAttribute |
Se os atributos devem ser excluídos em elementos. Padrão: false . |
lido |
mode |
Modo para lidar com registros corrompidos durante a análise.PERMISSIVE : Para registros corrompidos, coloca a cadeia de caracteres malformada em um campo configurado por columnNameOfCorruptRecord , e define campos malformados como null . Para manter registros corrompidos, você pode definir um string campo de tipo nomeado columnNameOfCorruptRecord em um esquema definido pelo usuário. Se um esquema não tiver o campo, os registros corrompidos serão descartados durante a análise. Ao inferir um esquema, o analisador adiciona implicitamente um columnNameOfCorruptRecord campo em um esquema de saída.DROPMALFORMED : Ignora registros corrompidos. Este modo não é suportado para funções incorporadas XML.FAILFAST : Lança uma exceção quando o analisador encontra registros corrompidos. |
lido |
inferSchema |
If true , tenta inferir um tipo apropriado para cada coluna DataFrame resultante. Se false , todas as colunas resultantes são do string tipo. Predefinição:true . As funções internas XML ignoram essa opção. |
lido |
columnNameOfCorruptRecord |
Permite renomear o novo campo que contém uma cadeia de caracteres malformada criada porPERMISSIVE modo. Padrão: spark.sql.columnNameOfCorruptRecord . |
lido |
attributePrefix |
O prefixo para atributos para diferenciar atributos de elementos. Este será o prefixo para nomes de campos. A predefinição é _ . Pode estar vazio para ler XML, mas não para escrever. |
ler, escrever |
valueTag |
A tag usada para os dados de caractere dentro de elementos que também têm atributo(s) ou elemento(s) filho(s). O usuário pode especificar o valueTag campo no esquema ou ele será adicionado automaticamente durante a inferência do esquema quando os dados de caracteres estiverem presentes em elementos com outros elementos ou atributos. Predefinição: _VALUE |
ler,escrever |
encoding |
Para leitura, decodifica os arquivos XML pelo tipo de codificação fornecido. Para escrever, especifica a codificação (charset) de arquivos XML salvos. As funções internas XML ignoram essa opção. Padrão: UTF-8 . |
ler, escrever |
ignoreSurroundingSpaces |
Define se os espaços em branco ao redor dos valores que estão sendo lidos devem ser ignorados. Padrão: true . Os dados de caracteres somente de espaço em branco são ignorados. |
lido |
rowValidationXSDPath |
Caminho para um arquivo XSD opcional que é usado para validar o XML para cada linha individualmente. As linhas que não validam são tratadas como erros de análise como acima. O XSD não afeta o esquema fornecido ou inferido. | lido |
ignoreNamespace |
Se true , os prefixos dos namespaces em elementos e atributos XML forem ignorados. Tags <abc:author> e <def:author> , por exemplo, são tratadas como se ambas fossem apenas <author> . Os namespaces não podem ser ignorados rowTag no elemento , apenas seus filhos de leitura. A análise XML não reconhece namespace, mesmo que false . Padrão: false . |
lido |
timestampFormat |
Cadeia de caracteres de formato de carimbo de data/hora personalizada que segue o formato de padrão datetime. Isto aplica-se ao timestamp tipo. Padrão: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] . |
ler, escrever |
timestampNTZFormat |
Cadeia de caracteres de formato personalizado para carimbo de data/hora sem fuso horário que segue o formato de padrão datetime. Isso se aplica ao tipo TimestampNTZType. Predefinição:yyyy-MM-dd'T'HH:mm:ss[.SSS] |
ler, escrever |
dateFormat |
Cadeia de caracteres de formato de data personalizada que segue o formato de padrão datetime. Isto aplica-se ao tipo de data. Padrão: yyyy-MM-dd . |
ler, escrever |
locale |
Define uma localidade como uma marca de idioma no formato IETF BCP 47. Por exemplo, locale é usado durante a análise de datas e carimbos de data/hora. Padrão: en-US . |
lido |
rootTag |
Marca raiz dos arquivos XML. Por exemplo, em <books> <book><book>...</books> , o valor apropriado é books . Você pode incluir atributos básicos especificando um valor como books foo="bar" . Padrão: ROWS . |
escrita |
declaration |
Conteúdo da declaração XML a ser gravada no início de cada arquivo XML de saída, antes do rootTag arquivo . Por exemplo, um valor de foo causas <?xml foo?> a serem gravadas. Defina como uma cadeia de caracteres vazia para suprimir. Predefinição: version="1.0" encoding="UTF-8" standalone="yes" . |
escrita |
arrayElementName |
Nome do elemento XML que inclui cada elemento de uma coluna com valor de matriz ao escrever. Padrão: item . |
escrita |
nullValue |
Define a representação de cadeia de caracteres de um valor nulo. Padrão: string null . Quando isso é null , o analisador não escreve atributos e elementos para campos. |
ler, escrever |
compression |
Código de compressão para usar ao salvar no arquivo. Este pode ser um dos nomes abreviados conhecidos que não diferenciam maiúsculas de minúsculas (none , bzip2 , gzip ,lz4 , snappy edeflate ). As funções internas XML ignoram essa opção. Padrão: none . |
escrita |
validateName |
Se verdadeiro, lança um erro na falha de validação do nome do elemento XML. Por exemplo, nomes de campo SQL podem ter espaços, mas nomes de elementos XML não. Predefinição:true . |
escrita |
readerCaseSensitive |
Especifica o comportamento de diferenciação de maiúsculas e minúsculas quando rescuedDataColumn está habilitado. Se verdadeiro, resgate as colunas de dados cujos nomes diferem por caso do esquema; caso contrário, leia os dados de forma que não diferencie maiúsculas de minúsculas. Padrão: true . |
lido |
rescuedDataColumn |
Se todos os dados que não podem ser analisados devem ser analisados devido a uma incompatibilidade de tipo de dados e incompatibilidade de esquema (incluindo caixa de coluna) para uma coluna separada. Esta coluna é incluída por padrão ao usar o Auto Loader. Para obter mais detalhes, consulte O que é a coluna de dados resgatados?. Padrão: Nenhum. | lido |
PARQUET
Opções
Opção |
---|
datetimeRebaseMode Tipo: String Controla a rebase dos valores DATE e TIMESTAMP entre os calendários gregoriano Juliano e Proléptico. Valores permitidos: EXCEPTION , LEGACY eCORRECTED .Valor predefinido: LEGACY |
int96RebaseMode Tipo: String Controla a rebase dos valores de carimbo de data/hora INT96 entre os calendários gregoriano Juliano e Proléptico. Valores permitidos: EXCEPTION , LEGACY eCORRECTED .Valor predefinido: LEGACY |
mergeSchema Tipo: Boolean Se deve inferir o esquema em vários arquivos e mesclar o esquema de cada arquivo. Valor predefinido: false |
readerCaseSensitive Tipo: Boolean Especifica o comportamento de diferenciação de maiúsculas e minúsculas quando rescuedDataColumn está habilitado. Se verdadeiro, resgate as colunas de dados cujos nomes diferem por caso do esquema; caso contrário, leia os dados de forma que não diferencie maiúsculas de minúsculas.Valor predefinido: true |
rescuedDataColumn Tipo: String Se todos os dados que não podem ser analisados devem ser analisados devido a: uma incompatibilidade de tipo de dados e incompatibilidade de esquema (incluindo caixa de coluna) para uma coluna separada. Esta coluna é incluída por padrão ao usar o Auto Loader. Para obter mais detalhes, consulte O que é a coluna de dados resgatados?. Valor padrão: Nenhum |
AVRO
Opções
Opção |
---|
avroSchema Tipo: String Esquema opcional fornecido por um usuário no formato Avro. Ao ler o Avro, essa opção pode ser definida como um esquema evoluído, que é compatível, mas diferente do esquema Avro real. O esquema de desserialização será consistente com o esquema evoluído. Por exemplo, se você definir um esquema evoluído contendo uma coluna adicional com um valor padrão, o resultado da leitura também conterá a nova coluna. Valor padrão: Nenhum |
datetimeRebaseMode Tipo: String Controla a rebase dos valores DATE e TIMESTAMP entre os calendários gregoriano Juliano e Proléptico. Valores permitidos: EXCEPTION , LEGACY eCORRECTED .Valor predefinido: LEGACY |
mergeSchema Tipo: Boolean Se deve inferir o esquema em vários arquivos e mesclar o esquema de cada arquivo. mergeSchema para Avro não relaxa tipos de dados.Valor predefinido: false |
readerCaseSensitive Tipo: Boolean Especifica o comportamento de diferenciação de maiúsculas e minúsculas quando rescuedDataColumn está habilitado. Se verdadeiro, resgate as colunas de dados cujos nomes diferem por caso do esquema; caso contrário, leia os dados de forma que não diferencie maiúsculas de minúsculas.Valor predefinido: true |
rescuedDataColumn Tipo: String Se todos os dados que não podem ser analisados devem ser analisados devido a: uma incompatibilidade de tipo de dados e incompatibilidade de esquema (incluindo caixa de coluna) para uma coluna separada. Esta coluna é incluída por padrão ao usar o Auto Loader. Para obter mais detalhes, consulte O que é a coluna de dados resgatados?. Valor padrão: Nenhum |
BINARYFILE
Opções
Os ficheiros binários não têm quaisquer opções de configuração adicionais.
TEXT
Opções
Opção |
---|
encoding Tipo: String O nome da codificação dos arquivos TEXT. Consulte java.nio.charset.Charset a lista de opções.Valor predefinido: UTF-8 |
lineSep Tipo: String Uma cadeia de caracteres entre dois registros TEXT consecutivos. Valor padrão: Nenhum, que abrange \r , \r\n e \n |
wholeText Tipo: Boolean Se um arquivo deve ser lido como um único registro. Valor predefinido: false |
ORC
Opções
Opção |
---|
mergeSchema Tipo: Boolean Se deve inferir o esquema em vários arquivos e mesclar o esquema de cada arquivo. Valor predefinido: false |
Opções de streaming
Essas opções se aplicam ao usar read_files
dentro de uma tabela de streaming ou consulta de streaming.
Opção |
---|
allowOverwrites Tipo: Boolean Se os arquivos que foram modificados após a descoberta devem ser reprocessados. A versão mais recente disponível do arquivo será processada durante uma atualização se tiver sido modificada desde a última hora de início da consulta de atualização bem-sucedida. Valor predefinido: false |
includeExistingFiles Tipo: Boolean Se deve incluir arquivos existentes no caminho de entrada de processamento de fluxo ou apenas processar novos arquivos que chegam após a configuração inicial. Essa opção é avaliada somente quando você inicia um fluxo pela primeira vez. Alterar essa opção depois de reiniciar o fluxo não tem efeito. Valor predefinido: true |
maxBytesPerTrigger Tipo: Byte String O número máximo de novos bytes a serem processados em cada gatilho. Você pode especificar uma cadeia de caracteres de byte, como 10g para limitar cada microlote a 10 GB de dados. Este é um máximo suave. Se você tiver arquivos de 3 GB cada, o Azure Databricks processará 12 GB em um microlote. Quando usado em conjunto com maxFilesPerTrigger o , o Azure Databricks consome até o limite inferior de maxFilesPerTrigger ou maxBytesPerTrigger , o que for atingido primeiro.Nota: Para tabelas de streaming criadas em armazéns SQL sem servidor, essa opção não maxFilesPerTrigger deve ser definida para aproveitar o controle de admissão dinâmica, que é dimensionado por tamanho de carga de trabalho e recursos de computação sem servidor para oferecer a melhor latência e desempenho.Valor padrão: Nenhum |
maxFilesPerTrigger Tipo: Integer O número máximo de novos arquivos a serem processados em cada gatilho. Quando usado em conjunto com maxBytesPerTrigger o , o Azure Databricks consome até o limite inferior de maxFilesPerTrigger ou maxBytesPerTrigger , o que for atingido primeiro.Nota: Para tabelas de streaming criadas em armazéns SQL sem servidor, essa opção não maxBytesPerTrigger deve ser definida para aproveitar o controle de admissão dinâmica, que é dimensionado por tamanho de carga de trabalho e recursos de computação sem servidor para oferecer a melhor latência e desempenho.Valor padrão: 1000 |
schemaEvolutionMode Tipo: String O modo para evoluir o esquema à medida que novas colunas são descobertas nos dados. Por padrão, as colunas são inferidas como cadeias de caracteres ao inferir conjuntos de dados JSON. Consulte a evolução do esquema para obter mais detalhes. Esta opção não se aplica a text e binaryFile ficheiros.Valor padrão: "addNewColumns" quando um esquema não é fornecido."none" caso contrário. |
schemaLocation Tipo: String O local para armazenar o esquema inferido e as alterações subsequentes. Consulte inferência de esquema para obter mais detalhes. O local do esquema não é necessário quando usado em uma consulta de tabela de streaming. Valor padrão: Nenhum |
Exemplos
-- Reads the files available in the given path. Auto-detects the format and schema of the data.
> SELECT * FROM read_files('abfss://container@storageAccount.dfs.core.windows.net/base/path');
-- Reads the headerless CSV files in the given path with the provided schema.
> SELECT * FROM read_files(
's3://bucket/path',
format => 'csv',
schema => 'id int, ts timestamp, event string');
-- Infers the schema of CSV files with headers. Because the schema is not provided,
-- the CSV files are assumed to have headers.
> SELECT * FROM read_files(
's3://bucket/path',
format => 'csv')
-- Reads files that have a csv suffix.
> SELECT * FROM read_files('s3://bucket/path/*.csv')
-- Reads a single JSON file
> SELECT * FROM read_files(
'abfss://container@storageAccount.dfs.core.windows.net/path/single.json')
-- Reads JSON files and overrides the data type of the column `id` to integer.
> SELECT * FROM read_files(
's3://bucket/path',
format => 'json',
schemaHints => 'id int')
-- Reads files that have been uploaded or modified yesterday.
> SELECT * FROM read_files(
'gs://my-bucket/avroData',
modifiedAfter => date_sub(current_date(), 1),
modifiedBefore => current_date())
-- Creates a Delta table and stores the source file path as part of the data
> CREATE TABLE my_avro_data
AS SELECT *, _metadata.file_path
FROM read_files('gs://my-bucket/avroData')
-- Creates a streaming table that processes files that appear only after the table's creation.
-- The table will most likely be empty (if there's no clock skew) after being first created,
-- and future refreshes will bring new data in.
> CREATE OR REFRESH STREAMING TABLE avro_data
AS SELECT * FROM STREAM read_files('gs://my-bucket/avroData', includeExistingFiles => false);