Partager via


DataLakeFileClient class

Un DataLakeFileClient représente une URL vers le fichier stockage Azure.

Extends

Constructeurs

DataLakeFileClient(string, Pipeline)

Crée une instance de DataLakeFileClient à partir de l’URL et du pipeline.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Crée une instance de DataLakeFileClient à partir de l’URL et des informations d’identification.

Propriétés

fileSystemName

Nom du système de fichiers actuel.

name

Nom du chemin d’accès actuel (répertoire ou fichier).

Propriétés héritées

accountName
credential

Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package @azure/identity pour authentifier les demandes auprès du service. Vous pouvez également fournir un objet qui implémente l’interface TokenCredential. Si ce n’est pas spécifié, AnonymousCredential est utilisé.

url

Valeur de chaîne d’URL encodée.

Méthodes

append(RequestBodyType, number, number, FileAppendOptions)

Charge les données à ajouter à un fichier. Les données ne peuvent être ajoutées qu’à un fichier. Pour appliquer des données perviousment chargées dans un fichier, appelez le vidage.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

create(FileCreateOptions)

Créez un fichier.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

create(PathResourceTypeModel, PathCreateOptions)

Créez un fichier.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(FileCreateIfNotExistsOptions)

Créez un fichier s’il n’existe pas déjà.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Créez un fichier s’il n’existe pas déjà.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

flush(number, FileFlushOptions)

Vide (écrit) les données précédemment ajoutées à un fichier.

generateSasStringToSign(FileGenerateSasUrlOptions)

Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.

Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateSasUrl(FileGenerateSasUrlOptions)

Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.

Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)

Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)

Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

query(string, FileQueryOptions)

Requête rapide pour un fichier au format JSON ou CSV.

Exemple d’utilisation (Node.js) :

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Télécharge un fichier à partir du service, y compris ses métadonnées et ses propriétés.

  • Dans Node.js, les données retournent dans un flux lisibleStreamBody
  • Dans les navigateurs, les données retournent dans un contenu de promesseAsBlob

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Exemple d’utilisation (Node.js) :
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Exemple d’utilisation (navigateur) :

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Lit un fichier Data Lake en parallèle dans une mémoire tampon. Le décalage et le nombre sont facultatifs, transmettez 0 pour les deux pour lire l’intégralité du fichier.

Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.

readToBuffer(number, number, FileReadToBufferOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME

Lit un fichier Data Lake en parallèle dans une mémoire tampon. Offset et count sont facultatifs, passez 0 pour les deux pour lire l’intégralité du fichier

Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.

readToFile(string, number, number, FileReadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Télécharge un fichier Data Lake dans un fichier local. Échoue si le chemin d’accès du fichier donné se ferme déjà. Le décalage et le nombre sont facultatifs, passent respectivement 0 et non définis pour télécharger l’intégralité du fichier.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Définit une heure d’expiration sur un fichier, une fois cette heure remplie, le fichier est supprimé.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Charge une mémoire tampon(Node.js)/Blob/ArrayBuffer/ArrayBufferView dans un fichier.

uploadFile(string, FileParallelUploadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Charge un fichier local dans un fichier Data Lake.

uploadStream(Readable, FileParallelUploadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Charge un flux Node.js lisible dans un fichier Data Lake. Cette méthode tente de créer un fichier, puis commence à charger un bloc par segment. Assurez-vous que la taille potentielle du flux ne dépasse pas FILE_MAX_SIZE_BYTES et que le nombre potentiel de blocs ne dépasse pas BLOCK_BLOB_MAX_BLOCKS.

CONSEILS D’AMÉLIORATION DES PERFORMANCES :

  • Le flux d’entrée highWaterMark est préférable de définir une même valeur avec le paramètre options.chunkSize, ce qui évite les opérations Buffer.concat().

Méthodes héritées

delete(boolean, PathDeleteOptions)

Supprimez le chemin actuel (répertoire ou fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

deleteIfExists(boolean, PathDeleteOptions)

Supprimez le chemin actuel (répertoire ou fichier) s’il existe.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

exists(PathExistsOptions)

Retourne true si le fichier Data Lake représenté par ce client existe ; false sinon.

REMARQUE : utilisez cette fonction avec soin, car un fichier existant peut être supprimé par d’autres clients ou applications. Inversement, de nouveaux fichiers peuvent être ajoutés par d’autres clients ou applications une fois cette fonction terminée.

getAccessControl(PathGetAccessControlOptions)

Retourne les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

getDataLakeLeaseClient(string)

Obtenez un DataLakeLeaseClient qui gère les baux sur le chemin d’accès (répertoire ou fichier).

getProperties(PathGetPropertiesOptions)

Retourne toutes les métadonnées définies par l’utilisateur, les propriétés HTTP standard et les propriétés système du chemin d’accès (répertoire ou fichier).

AVERTISSEMENT : l’objet metadata retourné dans la réponse aura ses clés en minuscules, même s’ils contenaient initialement des caractères majuscules. Cela diffère des clés de métadonnées retournées par les méthodes de DataLakeFileSystemClient qui répertorient les chemins d’accès à l’aide de l’option includeMetadata, qui conserve leur casse d’origine.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

move(string, PathMoveOptions)

Déplacer le répertoire ou le fichier dans le même système de fichiers.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

move(string, string, PathMoveOptions)

Déplacez le répertoire ou le fichier vers un autre système de fichiers.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Supprime le contrôle d’accès sur un chemin d’accès et un sous-chemin d’accès.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Définissez les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Définit le contrôle d’accès sur un chemin d’accès et des sous-chemins.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Définit les propriétés système sur le chemin d’accès (répertoire ou fichier).

Si aucune valeur n’est fournie ou aucune valeur fournie pour les en-têtes HTTP d’objet blob spécifiés, ces en-têtes HTTP d’objet blob sans valeur seront effacés.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

setMetadata(Metadata, PathSetMetadataOptions)

Définit les métadonnées définies par l’utilisateur pour le chemin d’accès spécifié (répertoire de fichier) sous la forme d’une ou plusieurs paires nom-valeur.

Si aucune option n’est fournie ou aucune métadonnées définie dans le paramètre, les métadonnées de chemin d’accès sont supprimées.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Définit les autorisations de fichier sur un chemin d’accès.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

toDirectoryClient()

Convertissez dataLakePathClient actuel en DataLakeDirectoryClient si le chemin actuel est un répertoire.

toFileClient()

Convertissez dataLakePathClient actuel en DataLakeFileClient si le chemin actuel est un fichier.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifie le contrôle d’accès sur un chemin d’accès et des sous-chemins.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

Détails du constructeur

DataLakeFileClient(string, Pipeline)

Crée une instance de DataLakeFileClient à partir de l’URL et du pipeline.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Paramètres

url

string

Chaîne cliente pointant vers le fichier data lake Stockage Azure, par exemple «https://myaccount.dfs.core.windows.net/filesystem/file". Vous pouvez ajouter une SAP si vous utilisez AnonymousCredential, par exemple «https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Appelez newPipeline() pour créer un pipeline par défaut ou fournissez un pipeline personnalisé.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Crée une instance de DataLakeFileClient à partir de l’URL et des informations d’identification.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Paramètres

url

string

Chaîne cliente pointant vers le fichier data lake Stockage Azure, par exemple «https://myaccount.dfs.core.windows.net/filesystem/file". Vous pouvez ajouter une SAP si vous utilisez AnonymousCredential, par exemple «https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package @azure/identity pour authentifier les demandes auprès du service. Vous pouvez également fournir un objet qui implémente l’interface TokenCredential. Si ce n’est pas spécifié, AnonymousCredential est utilisé.

options
StoragePipelineOptions

Optionnel. Options de configuration du pipeline HTTP.

Détails de la propriété

fileSystemName

Nom du système de fichiers actuel.

string fileSystemName

Valeur de propriété

string

name

Nom du chemin d’accès actuel (répertoire ou fichier).

string name

Valeur de propriété

string

Détails de la propriété héritée

accountName

accountName: string

Valeur de propriété

string

héritée deDataLakePathClient.accountName

credential

Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package @azure/identity pour authentifier les demandes auprès du service. Vous pouvez également fournir un objet qui implémente l’interface TokenCredential. Si ce n’est pas spécifié, AnonymousCredential est utilisé.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Valeur de propriété

héritée deDataLakePathClient.credential

url

Valeur de chaîne d’URL encodée.

url: string

Valeur de propriété

string

héritée deDataLakePathClient.url

Détails de la méthode

append(RequestBodyType, number, number, FileAppendOptions)

Charge les données à ajouter à un fichier. Les données ne peuvent être ajoutées qu’à un fichier. Pour appliquer des données perviousment chargées dans un fichier, appelez le vidage.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Paramètres

body
HttpRequestBody

Contenu à charger.

offset

number

Ajouter un décalage en octets.

length

number

Longueur du contenu à ajouter en octets.

options
FileAppendOptions

Optionnel. Options lors de l’ajout de données.

Retours

create(FileCreateOptions)

Créez un fichier.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Paramètres

options
FileCreateOptions

Optionnel. Options lors de la création d’un fichier.

Retours

create(PathResourceTypeModel, PathCreateOptions)

Créez un fichier.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Paramètres

resourceType
PathResourceTypeModel

Le type de ressource doit être « file » pour DataLakeFileClient.

options
PathCreateOptions

Optionnel. Options lors de la création d’un fichier.

Retours

createIfNotExists(FileCreateIfNotExistsOptions)

Créez un fichier s’il n’existe pas déjà.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Paramètres

options
FileCreateIfNotExistsOptions

Optionnel. Options lors de la création d’un fichier.

Retours

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Créez un fichier s’il n’existe pas déjà.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Paramètres

resourceType
PathResourceTypeModel

Le type de ressource doit être « file » pour DataLakeFileClient.

Retours

flush(number, FileFlushOptions)

Vide (écrit) les données précédemment ajoutées à un fichier.

function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>

Paramètres

position

number

Position du fichier à vider. Ce paramètre permet à l’appelant de charger des données en parallèle et de contrôler l’ordre dans lequel il est ajouté au fichier. Il est nécessaire lors du chargement des données à ajouter au fichier et lors du vidage des données précédemment chargées dans le fichier. La valeur doit être la position où les données doivent être ajoutées. Les données chargées ne sont pas immédiatement vidées ou écrites dans le fichier. Pour vider, les données précédemment chargées doivent être contiguës, le paramètre de position doit être spécifié et égal à la longueur du fichier une fois que toutes les données ont été écrites, et il ne doit pas y avoir de corps d’entité de requête inclus dans la requête.

options
FileFlushOptions

Optionnel. Options lors du vidage des données.

Retours

generateSasStringToSign(FileGenerateSasUrlOptions)

Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.

Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasStringToSign(options: FileGenerateSasUrlOptions): string

Paramètres

options
FileGenerateSasUrlOptions

Paramètres facultatifs.

Retours

string

URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.

generateSasUrl(FileGenerateSasUrlOptions)

Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.

Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Paramètres

options
FileGenerateSasUrlOptions

Paramètres facultatifs.

Retours

Promise<string>

URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.

generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)

Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateUserDelegationSasStringToSign(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): string

Paramètres

options
FileGenerateSasUrlOptions

Paramètres facultatifs.

userDelegationKey
UserDelegationKey

Valeur de retour de blobServiceClient.getUserDelegationKey()

Retours

string

URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.

generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)

Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateUserDelegationSasUrl(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): Promise<string>

Paramètres

options
FileGenerateSasUrlOptions

Paramètres facultatifs.

userDelegationKey
UserDelegationKey

Valeur de retour de blobServiceClient.getUserDelegationKey()

Retours

Promise<string>

URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.

query(string, FileQueryOptions)

Requête rapide pour un fichier au format JSON ou CSV.

Exemple d’utilisation (Node.js) :

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Paramètres

query

string

Retours

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Télécharge un fichier à partir du service, y compris ses métadonnées et ses propriétés.

  • Dans Node.js, les données retournent dans un flux lisibleStreamBody
  • Dans les navigateurs, les données retournent dans un contenu de promesseAsBlob

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Exemple d’utilisation (Node.js) :
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Exemple d’utilisation (navigateur) :

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Paramètres

offset

number

Optionnel. Offset pour lire le fichier, la valeur par défaut est 0.

count

number

Optionnel. Nombre d’octets à lire, la valeur par défaut lit du décalage à la fin.

options
FileReadOptions

Optionnel. Options lors de la lecture du fichier.

Retours

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Lit un fichier Data Lake en parallèle dans une mémoire tampon. Le décalage et le nombre sont facultatifs, transmettez 0 pour les deux pour lire l’intégralité du fichier.

Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Paramètres

buffer

Buffer

Mémoire tampon à remplir, doit avoir une longueur supérieure au nombre

offset

number

À partir de quelle position du fichier Data Lake à lire

count

number

Quantité de données à lire. Lit à la fin lors de la transmission non définie

Retours

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME

Lit un fichier Data Lake en parallèle dans une mémoire tampon. Offset et count sont facultatifs, passez 0 pour les deux pour lire l’intégralité du fichier

Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Paramètres

offset

number

À partir de quelle position du fichier Data Lake à lire (en octets)

count

number

Quantité de données (en octets) à lire. Lit à la fin lors de la transmission non définie

Retours

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Télécharge un fichier Data Lake dans un fichier local. Échoue si le chemin d’accès du fichier donné se ferme déjà. Le décalage et le nombre sont facultatifs, passent respectivement 0 et non définis pour télécharger l’intégralité du fichier.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Paramètres

filePath

string

offset

number

À partir de quelle position du fichier à télécharger.

count

number

Quantité de données à télécharger. Se télécharge à la fin lors de la transmission non définie.

options
FileReadOptions

Options de lecture du fichier Data Lake.

Retours

Promise<FileReadResponse>

Données de réponse pour l’opération de lecture de fichier, mais avec readableStreamBody défini sur non défini, car son contenu est déjà lu et écrit dans un fichier local au chemin spécifié.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Définit une heure d’expiration sur un fichier, une fois cette heure remplie, le fichier est supprimé.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Paramètres

Retours

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Charge une mémoire tampon(Node.js)/Blob/ArrayBuffer/ArrayBufferView dans un fichier.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Paramètres

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Node), Blob, ArrayBuffer ou ArrayBufferView

Retours

uploadFile(string, FileParallelUploadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Charge un fichier local dans un fichier Data Lake.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Paramètres

filePath

string

Chemin d’accès complet du fichier local

Retours

uploadStream(Readable, FileParallelUploadOptions)

DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.

Charge un flux Node.js lisible dans un fichier Data Lake. Cette méthode tente de créer un fichier, puis commence à charger un bloc par segment. Assurez-vous que la taille potentielle du flux ne dépasse pas FILE_MAX_SIZE_BYTES et que le nombre potentiel de blocs ne dépasse pas BLOCK_BLOB_MAX_BLOCKS.

CONSEILS D’AMÉLIORATION DES PERFORMANCES :

  • Le flux d’entrée highWaterMark est préférable de définir une même valeur avec le paramètre options.chunkSize, ce qui évite les opérations Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Paramètres

stream

Readable

Node.js flux lisible.

Retours

Détails de la méthode héritée

delete(boolean, PathDeleteOptions)

Supprimez le chemin actuel (répertoire ou fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Paramètres

recursive

boolean

Obligatoire et valide uniquement lorsque la ressource est un répertoire. Si la valeur est « true », tous les chemins d’accès sous le répertoire sont supprimés.

options
PathDeleteOptions

Optionnel. Options lors de la suppression du chemin d’accès.

Retours

héritée deDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Supprimez le chemin actuel (répertoire ou fichier) s’il existe.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Paramètres

recursive

boolean

Obligatoire et valide uniquement lorsque la ressource est un répertoire. Si la valeur est « true », tous les chemins d’accès sous le répertoire sont supprimés.

Retours

héritée deDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Retourne true si le fichier Data Lake représenté par ce client existe ; false sinon.

REMARQUE : utilisez cette fonction avec soin, car un fichier existant peut être supprimé par d’autres clients ou applications. Inversement, de nouveaux fichiers peuvent être ajoutés par d’autres clients ou applications une fois cette fonction terminée.

function exists(options?: PathExistsOptions): Promise<boolean>

Paramètres

options
PathExistsOptions

options pour l’opération Exists.

Retours

Promise<boolean>

héritée deDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Retourne les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Paramètres

options
PathGetAccessControlOptions

Optionnel. Options lors de l’obtention du contrôle d’accès aux fichiers.

Retours

héritée deDataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Obtenez un DataLakeLeaseClient qui gère les baux sur le chemin d’accès (répertoire ou fichier).

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Paramètres

proposeLeaseId

string

Optionnel. ID de bail initial proposé.

Retours

héritée deDataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Retourne toutes les métadonnées définies par l’utilisateur, les propriétés HTTP standard et les propriétés système du chemin d’accès (répertoire ou fichier).

AVERTISSEMENT : l’objet metadata retourné dans la réponse aura ses clés en minuscules, même s’ils contenaient initialement des caractères majuscules. Cela diffère des clés de métadonnées retournées par les méthodes de DataLakeFileSystemClient qui répertorient les chemins d’accès à l’aide de l’option includeMetadata, qui conserve leur casse d’origine.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Paramètres

options
PathGetPropertiesOptions

Optionnel. Options lors de l’obtention des propriétés de chemin d’accès.

Retours

héritée deDataLakePathClient.getProperties

move(string, PathMoveOptions)

Déplacer le répertoire ou le fichier dans le même système de fichiers.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Paramètres

destinationPath

string

Chemin d’accès au répertoire de destination, tel que « répertoire » ou chemin d’accès au fichier « répertoire/fichier ». Si destinationPath est authentifié avec SAS, ajoutez la signature d’accès partagé au chemin de destination tel que « directory/file ?sasToken ».

options
PathMoveOptions

Optionnel. Options lors du déplacement d’un répertoire ou d’un fichier.

Retours

Promise<PathMoveResponse>

héritée deDataLakePathClient.move

move(string, string, PathMoveOptions)

Déplacez le répertoire ou le fichier vers un autre système de fichiers.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Paramètres

destinationFileSystem

string

Système de fichiers de destination tel que « système de fichiers ».

destinationPath

string

Chemin d’accès au répertoire de destination comme « répertoire » ou chemin d’accès au fichier « répertoire/fichier » Si destinationPath est authentifié avec SAS, ajoutez la SAP au chemin de destination tel que « directory/file ?sasToken ».

options
PathMoveOptions

Optionnel. Options lors du déplacement d’un répertoire ou d’un fichier.

Retours

Promise<PathMoveResponse>

héritée deDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Supprime le contrôle d’accès sur un chemin d’accès et un sous-chemin d’accès.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Paramètres

acl

RemovePathAccessControlItem[]

Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.

options
PathChangeAccessControlRecursiveOptions

Optionnel. Options

Retours

héritée deDataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Définissez les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Paramètres

acl

PathAccessControlItem[]

Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.

options
PathSetAccessControlOptions

Optionnel. Options lors de la définition du contrôle d’accès du chemin d’accès.

Retours

héritée deDataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Définit le contrôle d’accès sur un chemin d’accès et des sous-chemins.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Paramètres

acl

PathAccessControlItem[]

Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.

options
PathChangeAccessControlRecursiveOptions

Optionnel. Options

Retours

héritée deDataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Définit les propriétés système sur le chemin d’accès (répertoire ou fichier).

Si aucune valeur n’est fournie ou aucune valeur fournie pour les en-têtes HTTP d’objet blob spécifiés, ces en-têtes HTTP d’objet blob sans valeur seront effacés.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Paramètres

httpHeaders
PathHttpHeaders

Retours

héritée deDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Définit les métadonnées définies par l’utilisateur pour le chemin d’accès spécifié (répertoire de fichier) sous la forme d’une ou plusieurs paires nom-valeur.

Si aucune option n’est fournie ou aucune métadonnées définie dans le paramètre, les métadonnées de chemin d’accès sont supprimées.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Paramètres

metadata
Metadata

Optionnel. Remplacez les métadonnées existantes par cette valeur. Si aucune valeur n’est fournie, les métadonnées existantes seront supprimées.

options
PathSetMetadataOptions

Optionnel. Options lors de la définition des métadonnées de chemin d’accès.

Retours

héritée deDataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Définit les autorisations de fichier sur un chemin d’accès.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>

Paramètres

permissions
PathPermissions

Autorisations d’accès POSIX pour le propriétaire du fichier, le groupe propriétaire de fichiers et d’autres utilisateurs.

options
PathSetPermissionsOptions

Optionnel. Options lors de la définition des autorisations de chemin d’accès.

Retours

héritée deDataLakePathClient.setPermissions

toDirectoryClient()

Convertissez dataLakePathClient actuel en DataLakeDirectoryClient si le chemin actuel est un répertoire.

function toDirectoryClient(): DataLakeDirectoryClient

Retours

héritée deDataLakePathClient.toDirectoryClient

toFileClient()

Convertissez dataLakePathClient actuel en DataLakeFileClient si le chemin actuel est un fichier.

function toFileClient(): DataLakeFileClient

Retours

héritée deDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifie le contrôle d’accès sur un chemin d’accès et des sous-chemins.

Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Paramètres

acl

PathAccessControlItem[]

Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.

options
PathChangeAccessControlRecursiveOptions

Optionnel. Options

Retours

héritée deDataLakePathClient.updateAccessControlRecursive