DataLakeFileClient class
Ein DataLakeFileClient stellt eine URL zur Azure Storage-Datei dar.
- Extends
Konstruktoren
Data |
Erstellt eine Instanz von DataLakeFileClient aus url und Pipeline. |
Data |
Erstellt eine Instanz von DataLakeFileClient aus URL und Anmeldeinformationen. |
Eigenschaften
file |
Name des aktuellen Dateisystems. |
name | Name des aktuellen Pfads (Verzeichnis oder Datei). |
Geerbte Eigenschaften
account |
|
credential | Wie anonyme Anmeldeinformationen, StorageSharedKeyCredential oder anmeldeinformationen aus dem |
url | Codierter URL-Zeichenfolgenwert. |
Methoden
append(Request |
Lädt Daten hoch, die an eine Datei angefügt werden sollen. Daten können nur an eine Datei angefügt werden. Rufen Sie die Löschung auf, um pervious hochgeladene Daten auf eine Datei anzuwenden. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
create(File |
Erstellen Sie eine Datei. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create(Path |
Erstellen Sie eine Datei. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
flush(number, File |
Leerungen (Schreibvorgänge) zuvor angefügte Daten an eine Datei. |
generate |
Nur für Clients verfügbar, die mit freigegebenen Schlüsselanmeldeinformationen erstellt wurden. Generiert Zeichenfolge zum Signieren für einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird von den freigegebenen Schlüsselanmeldeinformationen des Clients signiert. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Nur für Clients verfügbar, die mit freigegebenen Schlüsselanmeldeinformationen erstellt wurden. Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird von den freigegebenen Schlüsselanmeldeinformationen des Clients signiert. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Generiert Zeichenfolge zum Signieren für einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird vom Eingabebenutzerdelegierungsschlüssel signiert. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird vom Eingabebenutzerdelegierungsschlüssel signiert. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
query(string, File |
Schnelle Abfrage für eine JSON- oder CSV-formatierte Datei. Beispielverwendung (Node.js):
|
read(number, number, File |
Lädt eine Datei aus dem Dienst herunter, einschließlich der Metadaten und Eigenschaften.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
Beispielverwendung (Browser):
|
read |
NUR IN NODE.JS RUNTIME VERFÜGBAR. Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Anzahl sind optional, übergeben 0, um die gesamte Datei zu lesen. Warnung: Puffer können Dateien nur bis zu einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen, da einschränkungen von Node.js/V8. Berücksichtigen Sie für Dateien, die größer als diese Größe sind, readToFile-. |
read |
NUR IN NODE.JS RUNTIME VERFÜGBAR Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Anzahl sind optional, übergeben 0, um die gesamte Datei zu lesen. Warnung: Puffer können Dateien nur bis zu einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen, da einschränkungen von Node.js/V8. Berücksichtigen Sie für Dateien, die größer als diese Größe sind, readToFile-. |
read |
NUR IN NODE.JS RUNTIME VERFÜGBAR. Lädt eine Data Lake-Datei in eine lokale Datei herunter. Schlägt fehl, wenn der angegebene Dateipfad bereits beendet wird. Offset und Anzahl sind optional, übergeben 0 und nicht definiert, um die gesamte Datei herunterzuladen. |
set |
Legt eine Ablaufzeit für eine Datei fest, sobald diese Zeit erfüllt ist, wird die Datei gelöscht. |
upload(Blob | Array |
Lädt einen Puffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView in eine Datei hoch. |
upload |
NUR IN NODE.JS RUNTIME VERFÜGBAR. Lädt eine lokale Datei in eine Data Lake-Datei hoch. |
upload |
NUR IN NODE.JS RUNTIME VERFÜGBAR. Lädt einen Node.js lesbaren Datenstrom in eine Data Lake-Datei hoch. Diese Methode versucht, eine Datei zu erstellen, und beginnt dann mit dem Hochladen von Block nach Block. Stellen Sie sicher, dass die potenzielle Größe des Datenstroms FILE_MAX_SIZE_BYTES nicht überschreitet, und die potenzielle Anzahl von Datenblöcken überschreitet nicht BLOCK_BLOB_MAX_BLOCKS. TIPPS ZUR LEISTUNGSVERBESSERUNG:
|
Geerbte Methoden
delete(boolean, Path |
Aktuellen Pfad löschen (Verzeichnis oder Datei). Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
delete |
Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei), falls vorhanden. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
exists(Path |
Gibt true zurück, wenn die Data Lake-Datei, die durch diesen Client dargestellt wird, vorhanden ist; andernfalls "false". HINWEIS: Verwenden Sie diese Funktion sorgfältig, da eine vorhandene Datei möglicherweise von anderen Clients oder Anwendungen gelöscht wird. Umgekehrt können neue Dateien von anderen Clients oder Anwendungen hinzugefügt werden, nachdem diese Funktion abgeschlossen wurde. |
get |
Gibt die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) zurück. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties |
get |
Rufen Sie eine DataLakeLeaseClient- ab, die Leases für den Pfad (Verzeichnis oder Datei) verwaltet. |
get |
Gibt alle benutzerdefinierten Metadaten, Standard-HTTP-Eigenschaften und Systemeigenschaften für den Pfad (Verzeichnis oder Datei) zurück. WARNUNG: Das in der Antwort zurückgegebene Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties |
move(string, Path |
Verschieben sie das Verzeichnis oder die Datei innerhalb desselben Dateisystems. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
move(string, string, Path |
Verschieben sie das Verzeichnis oder die Datei in ein anderes Dateisystem. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
remove |
Entfernt die Zugriffssteuerung für einen Pfad und Unterpfad. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Legen Sie die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) fest. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Legt die Zugriffssteuerung für einen Pfad und Unterpfad fest. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Legt Systemeigenschaften für den Pfad (Verzeichnis oder Datei) fest. Wenn kein Wert angegeben oder kein Wert für die angegebenen BLOB-HTTP-Header bereitgestellt wird, werden diese BLOB-HTTP-Header ohne einen Wert gelöscht. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties |
set |
Legt benutzerdefinierte Metadaten für den angegebenen Pfad (Verzeichnis der Datei) als ein oder mehrere Name-Wert-Paare fest. Wenn im Parameter keine Option angegeben oder keine Metadaten definiert sind, werden die Pfadmetadaten entfernt. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata |
set |
Legt die Dateiberechtigungen für einen Pfad fest. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
to |
Konvertieren Sie den aktuellen DataLakePathClient in DataLakeDirectoryClient, wenn der aktuelle Pfad ein Verzeichnis ist. |
to |
Konvertieren Sie den aktuellen DataLakePathClient in DataLakeFileClient, wenn der aktuelle Pfad eine Datei ist. |
update |
Ändert die Zugriffssteuerung für einen Pfad und Unterpfad. Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
Details zum Konstruktor
DataLakeFileClient(string, Pipeline)
Erstellt eine Instanz von DataLakeFileClient aus url und Pipeline.
new DataLakeFileClient(url: string, pipeline: Pipeline)
Parameter
- url
-
string
Eine Clientzeichenfolge, die auf die Azure Storage Data Lake-Datei verweist, z. B. "https://myaccount.dfs.core.windows.net/filesystem/file". Sie können eine SAS anfügen, wenn Anonyme Anmeldeinformationen verwendet werden, z. B. "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- pipeline
- Pipeline
Rufen Sie newPipeline() auf, um eine Standardpipeline zu erstellen oder eine angepasste Pipeline bereitzustellen.
DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)
Erstellt eine Instanz von DataLakeFileClient aus URL und Anmeldeinformationen.
new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)
Parameter
- url
-
string
Eine Clientzeichenfolge, die auf die Azure Storage Data Lake-Datei verweist, z. B. "https://myaccount.dfs.core.windows.net/filesystem/file". Sie können eine SAS anfügen, wenn Anonyme Anmeldeinformationen verwendet werden, z. B. "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- credential
-
StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Wie anonyme Anmeldeinformationen, StorageSharedKeyCredential oder anmeldeinformationen aus dem @azure/identity
-Paket zum Authentifizieren von Anforderungen an den Dienst. Sie können auch ein Objekt bereitstellen, das die TokenCredential-Schnittstelle implementiert. Wenn nicht angegeben, wird AnonymousCredential verwendet.
- options
- StoragePipelineOptions
Wahlfrei. Optionen zum Konfigurieren der HTTP-Pipeline.
Details zur Eigenschaft
fileSystemName
Name des aktuellen Dateisystems.
string fileSystemName
Eigenschaftswert
string
name
Name des aktuellen Pfads (Verzeichnis oder Datei).
string name
Eigenschaftswert
string
Geerbte Eigenschaftsdetails
accountName
credential
Wie anonyme Anmeldeinformationen, StorageSharedKeyCredential oder anmeldeinformationen aus dem @azure/identity
-Paket zum Authentifizieren von Anforderungen an den Dienst. Sie können auch ein Objekt bereitstellen, das die TokenCredential-Schnittstelle implementiert. Wenn nicht angegeben, wird AnonymousCredential verwendet.
credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Eigenschaftswert
url
Codierter URL-Zeichenfolgenwert.
url: string
Eigenschaftswert
string
Details zur Methode
append(RequestBodyType, number, number, FileAppendOptions)
Lädt Daten hoch, die an eine Datei angefügt werden sollen. Daten können nur an eine Datei angefügt werden. Rufen Sie die Löschung auf, um pervious hochgeladene Daten auf eine Datei anzuwenden.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>
Parameter
- body
- HttpRequestBody
Inhalte, die hochgeladen werden sollen.
- offset
-
number
Anfügen des Offsets in Byte.
- length
-
number
Länge des Inhalts, der in Byte angefügt werden soll.
- options
- FileAppendOptions
Wahlfrei. Optionen beim Anfügen von Daten.
Gibt zurück
Promise<FileAppendResponse>
create(FileCreateOptions)
Erstellen Sie eine Datei.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(options?: FileCreateOptions): Promise<FileCreateResponse>
Parameter
- options
- FileCreateOptions
Wahlfrei. Optionen beim Erstellen einer Datei.
Gibt zurück
Promise<FileCreateResponse>
create(PathResourceTypeModel, PathCreateOptions)
Erstellen Sie eine Datei.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>
Parameter
- resourceType
- PathResourceTypeModel
Der Ressourcentyp muss "File" für DataLakeFileClient sein.
- options
- PathCreateOptions
Wahlfrei. Optionen beim Erstellen einer Datei.
Gibt zurück
Promise<PathCreateResponse>
createIfNotExists(FileCreateIfNotExistsOptions)
Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>
Parameter
- options
- FileCreateIfNotExistsOptions
Wahlfrei. Optionen beim Erstellen einer Datei.
Gibt zurück
Promise<FileCreateIfNotExistsResponse>
createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)
Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>
Parameter
- resourceType
- PathResourceTypeModel
Der Ressourcentyp muss "File" für DataLakeFileClient sein.
- options
- PathCreateIfNotExistsOptions
Gibt zurück
Promise<PathCreateIfNotExistsResponse>
flush(number, FileFlushOptions)
Leerungen (Schreibvorgänge) zuvor angefügte Daten an eine Datei.
function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>
Parameter
- position
-
number
Dateiposition, die geleert werden soll. Mit diesem Parameter kann der Aufrufer Daten parallel hochladen und die Reihenfolge steuern, in der sie an die Datei angefügt wird. Es ist erforderlich, wenn Daten hochgeladen werden, die an die Datei angefügt werden sollen, und wenn zuvor hochgeladene Daten in die Datei geleert werden. Der Wert muss die Position sein, an der die Daten angefügt werden sollen. Hochgeladene Daten werden nicht sofort geleert oder in die Datei geschrieben. Zum Leeren müssen die zuvor hochgeladenen Daten zusammenhängend sein, der Positionsparameter muss angegeben und der Länge der Datei entsprechen, nachdem alle Daten geschrieben wurden, und es darf kein Anforderungsentitätstext vorhanden sein, der in der Anforderung enthalten ist.
- options
- FileFlushOptions
Wahlfrei. Optionen beim Leeren von Daten.
Gibt zurück
Promise<FileFlushResponse>
generateSasStringToSign(FileGenerateSasUrlOptions)
Nur für Clients verfügbar, die mit freigegebenen Schlüsselanmeldeinformationen erstellt wurden.
Generiert Zeichenfolge zum Signieren für einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird von den freigegebenen Schlüsselanmeldeinformationen des Clients signiert.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateSasStringToSign(options: FileGenerateSasUrlOptions): string
Parameter
- options
- FileGenerateSasUrlOptions
Optionale Parameter.
Gibt zurück
string
Der SAS-URI, der aus dem URI für die Ressource besteht, die von diesem Client dargestellt wird, gefolgt vom generierten SAS-Token.
generateSasUrl(FileGenerateSasUrlOptions)
Nur für Clients verfügbar, die mit freigegebenen Schlüsselanmeldeinformationen erstellt wurden.
Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird von den freigegebenen Schlüsselanmeldeinformationen des Clients signiert.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>
Parameter
- options
- FileGenerateSasUrlOptions
Optionale Parameter.
Gibt zurück
Promise<string>
Der SAS-URI, der aus dem URI für die Ressource besteht, die von diesem Client dargestellt wird, gefolgt vom generierten SAS-Token.
generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)
Generiert Zeichenfolge zum Signieren für einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird vom Eingabebenutzerdelegierungsschlüssel signiert.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateUserDelegationSasStringToSign(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): string
Parameter
- options
- FileGenerateSasUrlOptions
Optionale Parameter.
- userDelegationKey
- UserDelegationKey
Rückgabewert von blobServiceClient.getUserDelegationKey()
Gibt zurück
string
Der SAS-URI, der aus dem URI für die Ressource besteht, die von diesem Client dargestellt wird, gefolgt vom generierten SAS-Token.
generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)
Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den Clienteigenschaften und Parametern, die übergeben werden. Die SAS wird vom Eingabebenutzerdelegierungsschlüssel signiert.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateUserDelegationSasUrl(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): Promise<string>
Parameter
- options
- FileGenerateSasUrlOptions
Optionale Parameter.
- userDelegationKey
- UserDelegationKey
Rückgabewert von blobServiceClient.getUserDelegationKey()
Gibt zurück
Promise<string>
Der SAS-URI, der aus dem URI für die Ressource besteht, die von diesem Client dargestellt wird, gefolgt vom generierten SAS-Token.
query(string, FileQueryOptions)
Schnelle Abfrage für eine JSON- oder CSV-formatierte Datei.
Beispielverwendung (Node.js):
// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>
Parameter
- query
-
string
- options
- FileQueryOptions
Gibt zurück
Promise<FileReadResponse>
read(number, number, FileReadOptions)
Lädt eine Datei aus dem Dienst herunter, einschließlich der Metadaten und Eigenschaften.
- In Node.jswerden Daten in einem lesbaren Stream lesbarStreamBody zurückgegeben.
- In Browsern werden Daten in einem ZusageinhaltAsBlob zurückgegeben.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
- Beispielverwendung (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
Beispielverwendung (Browser):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);
async function blobToString(blob: Blob): Promise<string> {
const fileReader = new FileReader();
return new Promise<string>((resolve, reject) => {
fileReader.onloadend = (ev: any) => {
resolve(ev.target!.result);
};
fileReader.onerror = reject;
fileReader.readAsText(blob);
});
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Parameter
- offset
-
number
Wahlfrei. Offset zum Lesen der Datei, Standardwert ist 0.
- count
-
number
Wahlfrei. Wie viele Bytes gelesen werden sollen, wird standardmäßig vom Offset bis zum Ende gelesen.
- options
- FileReadOptions
Wahlfrei. Optionen beim Lesen der Datei.
Gibt zurück
Promise<FileReadResponse>
readToBuffer(Buffer, number, number, FileReadToBufferOptions)
NUR IN NODE.JS RUNTIME VERFÜGBAR.
Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Anzahl sind optional, übergeben 0, um die gesamte Datei zu lesen.
Warnung: Puffer können Dateien nur bis zu einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen, da einschränkungen von Node.js/V8. Berücksichtigen Sie für Dateien, die größer als diese Größe sind, readToFile-.
function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Parameter
- buffer
-
Buffer
Puffer, der gefüllt werden soll, muss die Länge größer sein als die Anzahl
- offset
-
number
Von welcher Position der Data Lake-Datei gelesen werden soll
- count
-
number
Wie viele Daten gelesen werden sollen. Liest am Ende, wenn nicht definiert wird
- options
- FileReadToBufferOptions
Gibt zurück
Promise<Buffer>
readToBuffer(number, number, FileReadToBufferOptions)
NUR IN NODE.JS RUNTIME VERFÜGBAR
Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Anzahl sind optional, übergeben 0, um die gesamte Datei zu lesen.
Warnung: Puffer können Dateien nur bis zu einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen, da einschränkungen von Node.js/V8. Berücksichtigen Sie für Dateien, die größer als diese Größe sind, readToFile-.
function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Parameter
- offset
-
number
Von welcher Position der Data Lake-Datei gelesen(in Bytes)
- count
-
number
Wie viele Daten(in Bytes) gelesen werden sollen. Liest am Ende, wenn nicht definiert wird
- options
- FileReadToBufferOptions
Gibt zurück
Promise<Buffer>
readToFile(string, number, number, FileReadOptions)
NUR IN NODE.JS RUNTIME VERFÜGBAR.
Lädt eine Data Lake-Datei in eine lokale Datei herunter. Schlägt fehl, wenn der angegebene Dateipfad bereits beendet wird. Offset und Anzahl sind optional, übergeben 0 und nicht definiert, um die gesamte Datei herunterzuladen.
function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Parameter
- filePath
-
string
- offset
-
number
Von welcher Position der Datei heruntergeladen werden soll.
- count
-
number
Wie viele Daten heruntergeladen werden sollen. Wird beim Übergeben undefiniert auf das Ende heruntergeladen.
- options
- FileReadOptions
Optionen zum Lesen der Data Lake-Datei.
Gibt zurück
Promise<FileReadResponse>
Die Antwortdaten für den Dateilesevorgang, aber mit "readStreamBody" auf "undefiniert", da der Inhalt bereits in eine lokale Datei im angegebenen Pfad gelesen und geschrieben wurde.
setExpiry(FileExpiryMode, FileSetExpiryOptions)
Legt eine Ablaufzeit für eine Datei fest, sobald diese Zeit erfüllt ist, wird die Datei gelöscht.
function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>
Parameter
- mode
- FileExpiryMode
- options
- FileSetExpiryOptions
Gibt zurück
Promise<FileSetExpiryResponse>
upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)
Lädt einen Puffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView in eine Datei hoch.
function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parameter
- data
-
Blob | ArrayBuffer | ArrayBufferView | Buffer
Buffer(Node), Blob, ArrayBuffer oder ArrayBufferView
- options
- FileParallelUploadOptions
Gibt zurück
Promise<FileUploadResponse>
uploadFile(string, FileParallelUploadOptions)
NUR IN NODE.JS RUNTIME VERFÜGBAR.
Lädt eine lokale Datei in eine Data Lake-Datei hoch.
function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parameter
- filePath
-
string
Vollständiger Pfad der lokalen Datei
- options
- FileParallelUploadOptions
Gibt zurück
Promise<FileUploadResponse>
uploadStream(Readable, FileParallelUploadOptions)
NUR IN NODE.JS RUNTIME VERFÜGBAR.
Lädt einen Node.js lesbaren Datenstrom in eine Data Lake-Datei hoch. Diese Methode versucht, eine Datei zu erstellen, und beginnt dann mit dem Hochladen von Block nach Block. Stellen Sie sicher, dass die potenzielle Größe des Datenstroms FILE_MAX_SIZE_BYTES nicht überschreitet, und die potenzielle Anzahl von Datenblöcken überschreitet nicht BLOCK_BLOB_MAX_BLOCKS.
TIPPS ZUR LEISTUNGSVERBESSERUNG:
- Input stream highWaterMark is better to set a same value with options.chunkSize parameter, which will avoid Buffer.concat() operations.
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parameter
- stream
-
Readable
Node.js lesbarer Datenstrom.
- options
- FileParallelUploadOptions
Gibt zurück
Promise<FileUploadResponse>
Details zur geerbten Methode
delete(boolean, PathDeleteOptions)
Aktuellen Pfad löschen (Verzeichnis oder Datei).
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>
Parameter
- recursive
-
boolean
Erforderlich und nur gültig, wenn die Ressource ein Verzeichnis ist. Wenn "true", werden alle Pfade unterhalb des Verzeichnisses gelöscht.
- options
- PathDeleteOptions
Wahlfrei. Optionen beim Löschen des Pfads.
Gibt zurück
Promise<PathDeleteResponse>
deleteIfExists(boolean, PathDeleteOptions)
Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei), falls vorhanden.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>
Parameter
- recursive
-
boolean
Erforderlich und nur gültig, wenn die Ressource ein Verzeichnis ist. Wenn "true", werden alle Pfade unterhalb des Verzeichnisses gelöscht.
- options
- PathDeleteOptions
Gibt zurück
Promise<PathDeleteIfExistsResponse>
geerbt vonDataLakePathClient.deleteIfExists
exists(PathExistsOptions)
Gibt true zurück, wenn die Data Lake-Datei, die durch diesen Client dargestellt wird, vorhanden ist; andernfalls "false".
HINWEIS: Verwenden Sie diese Funktion sorgfältig, da eine vorhandene Datei möglicherweise von anderen Clients oder Anwendungen gelöscht wird. Umgekehrt können neue Dateien von anderen Clients oder Anwendungen hinzugefügt werden, nachdem diese Funktion abgeschlossen wurde.
function exists(options?: PathExistsOptions): Promise<boolean>
Parameter
- options
- PathExistsOptions
options to Exists operation.
Gibt zurück
Promise<boolean>
getAccessControl(PathGetAccessControlOptions)
Gibt die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) zurück.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties
function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>
Parameter
- options
- PathGetAccessControlOptions
Wahlfrei. Optionen beim Abrufen der Dateizugriffskontrolle.
Gibt zurück
Promise<PathGetAccessControlResponse>
geerbt vonDataLakePathClient.getAccessControl-
getDataLakeLeaseClient(string)
Rufen Sie eine DataLakeLeaseClient- ab, die Leases für den Pfad (Verzeichnis oder Datei) verwaltet.
function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient
Parameter
- proposeLeaseId
-
string
Wahlfrei. Anfänglich vorgeschlagene Lease-ID.
Gibt zurück
getProperties(PathGetPropertiesOptions)
Gibt alle benutzerdefinierten Metadaten, Standard-HTTP-Eigenschaften und Systemeigenschaften für den Pfad (Verzeichnis oder Datei) zurück.
WARNUNG: Das in der Antwort zurückgegebene metadata
-Objekt weist die Schlüssel in Kleinbuchstaben auf, auch wenn sie ursprünglich Großbuchstaben enthielten. Dies unterscheidet sich von den Metadatenschlüsseln, die von den Methoden von DataLakeFileSystemClient, die Pfade mithilfe der Option includeMetadata
auflisten, die ihre ursprüngliche Groß-/Kleinschreibung beibehalten.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties
function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>
Parameter
- options
- PathGetPropertiesOptions
Wahlfrei. Optionen beim Abrufen von Pfadeigenschaften.
Gibt zurück
Promise<PathGetPropertiesResponse>
geerbt vonDataLakePathClient.getProperties
move(string, PathMoveOptions)
Verschieben sie das Verzeichnis oder die Datei innerhalb desselben Dateisystems.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Parameter
- destinationPath
-
string
Zielverzeichnispfad wie "Verzeichnis" oder Dateipfad "Verzeichnis/Datei". Wenn der destinationPath mit SAS authentifiziert ist, fügen Sie die SAS dem Zielpfad wie "directory/file?sasToken" hinzu.
- options
- PathMoveOptions
Wahlfrei. Optionen beim Verschieben des Verzeichnisses oder der Datei.
Gibt zurück
Promise<PathMoveResponse>
geerbt vonDataLakePathClient.move
move(string, string, PathMoveOptions)
Verschieben sie das Verzeichnis oder die Datei in ein anderes Dateisystem.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Parameter
- destinationFileSystem
-
string
Zieldateisystem wie "Filesystem".
- destinationPath
-
string
Zielverzeichnispfad wie "Verzeichnis" oder Dateipfad "verzeichnis/datei" Wenn der Zielpfad bei SAS authentifiziert ist, fügen Sie die SAS dem Zielpfad wie "directory/file?sasToken" hinzu.
- options
- PathMoveOptions
Wahlfrei. Optionen beim Verschieben des Verzeichnisses oder der Datei.
Gibt zurück
Promise<PathMoveResponse>
geerbt vonDataLakePathClient.move
removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Entfernt die Zugriffssteuerung für einen Pfad und Unterpfad.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parameter
Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.
Wahlfrei. Optionen
Gibt zurück
setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)
Legen Sie die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) fest.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>
Parameter
- acl
Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.
- options
- PathSetAccessControlOptions
Wahlfrei. Optionen beim Festlegen der Pfadzugriffssteuerung.
Gibt zurück
Promise<PathSetAccessControlResponse>
Geerbt vonDataLakePathClient.setAccessControl
setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Legt die Zugriffssteuerung für einen Pfad und Unterpfad fest.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parameter
- acl
Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.
Wahlfrei. Optionen
Gibt zurück
setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)
Legt Systemeigenschaften für den Pfad (Verzeichnis oder Datei) fest.
Wenn kein Wert angegeben oder kein Wert für die angegebenen BLOB-HTTP-Header bereitgestellt wird, werden diese BLOB-HTTP-Header ohne einen Wert gelöscht.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties
function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>
Parameter
- httpHeaders
- PathHttpHeaders
- options
- PathSetHttpHeadersOptions
Gibt zurück
Promise<PathSetHttpHeadersResponse>
geerbt vonDataLakePathClient.setHttpHeaders
setMetadata(Metadata, PathSetMetadataOptions)
Legt benutzerdefinierte Metadaten für den angegebenen Pfad (Verzeichnis der Datei) als ein oder mehrere Name-Wert-Paare fest.
Wenn im Parameter keine Option angegeben oder keine Metadaten definiert sind, werden die Pfadmetadaten entfernt.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata
function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>
Parameter
- metadata
- Metadata
Wahlfrei. Ersetzen Sie vorhandene Metadaten durch diesen Wert. Wenn kein Wert bereitgestellt wird, werden die vorhandenen Metadaten entfernt.
- options
- PathSetMetadataOptions
Wahlfrei. Optionen beim Festlegen von Pfadmetadaten.
Gibt zurück
Promise<PathSetMetadataResponse>
geerbt vonDataLakePathClient.setMetadata-
setPermissions(PathPermissions, PathSetPermissionsOptions)
Legt die Dateiberechtigungen für einen Pfad fest.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>
Parameter
- permissions
- PathPermissions
Die POSIX-Zugriffsberechtigungen für den Dateibesitzer, die Besitzergruppe der Datei und andere.
- options
- PathSetPermissionsOptions
Wahlfrei. Optionen beim Festlegen von Pfadberechtigungen.
Gibt zurück
Promise<PathSetPermissionsResponse>
geerbt vonDataLakePathClient.setPermissions-
toDirectoryClient()
Konvertieren Sie den aktuellen DataLakePathClient in DataLakeDirectoryClient, wenn der aktuelle Pfad ein Verzeichnis ist.
function toDirectoryClient(): DataLakeDirectoryClient
Gibt zurück
geerbt vonDataLakePathClient.toDirectoryClient
toFileClient()
Konvertieren Sie den aktuellen DataLakePathClient in DataLakeFileClient, wenn der aktuelle Pfad eine Datei ist.
function toFileClient(): DataLakeFileClient
Gibt zurück
geerbt vonDataLakePathClient.toFileClient-
updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Ändert die Zugriffssteuerung für einen Pfad und Unterpfad.
Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parameter
- acl
Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.
Wahlfrei. Optionen