DataLakeFileClient class
Un DataLakeFileClient représente une URL vers le fichier stockage Azure.
- Extends
Constructeurs
Data |
Crée une instance de DataLakeFileClient à partir de l’URL et du pipeline. |
Data |
Crée une instance de DataLakeFileClient à partir de l’URL et des informations d’identification. |
Propriétés
file |
Nom du système de fichiers actuel. |
name | Nom du chemin d’accès actuel (répertoire ou fichier). |
Propriétés héritées
account |
|
credential | Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package |
url | Valeur de chaîne d’URL encodée. |
Méthodes
append(Request |
Charge les données à ajouter à un fichier. Les données ne peuvent être ajoutées qu’à un fichier. Pour appliquer des données perviousment chargées dans un fichier, appelez le vidage. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
create(File |
Créez un fichier. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create(Path |
Créez un fichier. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Créez un fichier s’il n’existe pas déjà. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Créez un fichier s’il n’existe pas déjà. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
flush(number, File |
Vide (écrit) les données précédemment ajoutées à un fichier. |
generate |
Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée. Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée. Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
generate |
Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
query(string, File |
Requête rapide pour un fichier au format JSON ou CSV. Exemple d’utilisation (Node.js) :
|
read(number, number, File |
Télécharge un fichier à partir du service, y compris ses métadonnées et ses propriétés.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
Exemple d’utilisation (navigateur) :
|
read |
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME. Lit un fichier Data Lake en parallèle dans une mémoire tampon. Le décalage et le nombre sont facultatifs, transmettez 0 pour les deux pour lire l’intégralité du fichier. Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile. |
read |
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME Lit un fichier Data Lake en parallèle dans une mémoire tampon. Offset et count sont facultatifs, passez 0 pour les deux pour lire l’intégralité du fichier Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile. |
read |
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME. Télécharge un fichier Data Lake dans un fichier local. Échoue si le chemin d’accès du fichier donné se ferme déjà. Le décalage et le nombre sont facultatifs, passent respectivement 0 et non définis pour télécharger l’intégralité du fichier. |
set |
Définit une heure d’expiration sur un fichier, une fois cette heure remplie, le fichier est supprimé. |
upload(Blob | Array |
Charge une mémoire tampon(Node.js)/Blob/ArrayBuffer/ArrayBufferView dans un fichier. |
upload |
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME. Charge un fichier local dans un fichier Data Lake. |
upload |
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME. Charge un flux Node.js lisible dans un fichier Data Lake. Cette méthode tente de créer un fichier, puis commence à charger un bloc par segment. Assurez-vous que la taille potentielle du flux ne dépasse pas FILE_MAX_SIZE_BYTES et que le nombre potentiel de blocs ne dépasse pas BLOCK_BLOB_MAX_BLOCKS. CONSEILS D’AMÉLIORATION DES PERFORMANCES :
|
Méthodes héritées
delete(boolean, Path |
Supprimez le chemin actuel (répertoire ou fichier). Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
delete |
Supprimez le chemin actuel (répertoire ou fichier) s’il existe. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
exists(Path |
Retourne true si le fichier Data Lake représenté par ce client existe ; false sinon. REMARQUE : utilisez cette fonction avec soin, car un fichier existant peut être supprimé par d’autres clients ou applications. Inversement, de nouveaux fichiers peuvent être ajoutés par d’autres clients ou applications une fois cette fonction terminée. |
get |
Retourne les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier). Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties |
get |
Obtenez un DataLakeLeaseClient qui gère les baux sur le chemin d’accès (répertoire ou fichier). |
get |
Retourne toutes les métadonnées définies par l’utilisateur, les propriétés HTTP standard et les propriétés système du chemin d’accès (répertoire ou fichier). AVERTISSEMENT : l’objet Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties |
move(string, Path |
Déplacer le répertoire ou le fichier dans le même système de fichiers. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
move(string, string, Path |
Déplacez le répertoire ou le fichier vers un autre système de fichiers. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
remove |
Supprime le contrôle d’accès sur un chemin d’accès et un sous-chemin d’accès. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Définissez les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier). Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Définit le contrôle d’accès sur un chemin d’accès et des sous-chemins. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Définit les propriétés système sur le chemin d’accès (répertoire ou fichier). Si aucune valeur n’est fournie ou aucune valeur fournie pour les en-têtes HTTP d’objet blob spécifiés, ces en-têtes HTTP d’objet blob sans valeur seront effacés. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties |
set |
Définit les métadonnées définies par l’utilisateur pour le chemin d’accès spécifié (répertoire de fichier) sous la forme d’une ou plusieurs paires nom-valeur. Si aucune option n’est fournie ou aucune métadonnées définie dans le paramètre, les métadonnées de chemin d’accès sont supprimées. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata |
set |
Définit les autorisations de fichier sur un chemin d’accès. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
to |
Convertissez dataLakePathClient actuel en DataLakeDirectoryClient si le chemin actuel est un répertoire. |
to |
Convertissez dataLakePathClient actuel en DataLakeFileClient si le chemin actuel est un fichier. |
update |
Modifie le contrôle d’accès sur un chemin d’accès et des sous-chemins. Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
Détails du constructeur
DataLakeFileClient(string, Pipeline)
Crée une instance de DataLakeFileClient à partir de l’URL et du pipeline.
new DataLakeFileClient(url: string, pipeline: Pipeline)
Paramètres
- url
-
string
Chaîne cliente pointant vers le fichier data lake Stockage Azure, par exemple «https://myaccount.dfs.core.windows.net/filesystem/file". Vous pouvez ajouter une SAP si vous utilisez AnonymousCredential, par exemple «https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- pipeline
- Pipeline
Appelez newPipeline() pour créer un pipeline par défaut ou fournissez un pipeline personnalisé.
DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)
Crée une instance de DataLakeFileClient à partir de l’URL et des informations d’identification.
new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)
Paramètres
- url
-
string
Chaîne cliente pointant vers le fichier data lake Stockage Azure, par exemple «https://myaccount.dfs.core.windows.net/filesystem/file". Vous pouvez ajouter une SAP si vous utilisez AnonymousCredential, par exemple «https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- credential
-
StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package @azure/identity
pour authentifier les demandes auprès du service. Vous pouvez également fournir un objet qui implémente l’interface TokenCredential. Si ce n’est pas spécifié, AnonymousCredential est utilisé.
- options
- StoragePipelineOptions
Optionnel. Options de configuration du pipeline HTTP.
Détails de la propriété
fileSystemName
Nom du système de fichiers actuel.
string fileSystemName
Valeur de propriété
string
name
Nom du chemin d’accès actuel (répertoire ou fichier).
string name
Valeur de propriété
string
Détails de la propriété héritée
accountName
credential
Tels que AnonymousCredential, StorageSharedKeyCredential ou toutes les informations d’identification du package @azure/identity
pour authentifier les demandes auprès du service. Vous pouvez également fournir un objet qui implémente l’interface TokenCredential. Si ce n’est pas spécifié, AnonymousCredential est utilisé.
credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Valeur de propriété
héritée deDataLakePathClient.credential
url
Valeur de chaîne d’URL encodée.
url: string
Valeur de propriété
string
héritée deDataLakePathClient.url
Détails de la méthode
append(RequestBodyType, number, number, FileAppendOptions)
Charge les données à ajouter à un fichier. Les données ne peuvent être ajoutées qu’à un fichier. Pour appliquer des données perviousment chargées dans un fichier, appelez le vidage.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>
Paramètres
- body
- HttpRequestBody
Contenu à charger.
- offset
-
number
Ajouter un décalage en octets.
- length
-
number
Longueur du contenu à ajouter en octets.
- options
- FileAppendOptions
Optionnel. Options lors de l’ajout de données.
Retours
Promise<FileAppendResponse>
create(FileCreateOptions)
Créez un fichier.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(options?: FileCreateOptions): Promise<FileCreateResponse>
Paramètres
- options
- FileCreateOptions
Optionnel. Options lors de la création d’un fichier.
Retours
Promise<FileCreateResponse>
create(PathResourceTypeModel, PathCreateOptions)
Créez un fichier.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>
Paramètres
- resourceType
- PathResourceTypeModel
Le type de ressource doit être « file » pour DataLakeFileClient.
- options
- PathCreateOptions
Optionnel. Options lors de la création d’un fichier.
Retours
Promise<PathCreateResponse>
createIfNotExists(FileCreateIfNotExistsOptions)
Créez un fichier s’il n’existe pas déjà.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>
Paramètres
- options
- FileCreateIfNotExistsOptions
Optionnel. Options lors de la création d’un fichier.
Retours
Promise<FileCreateIfNotExistsResponse>
createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)
Créez un fichier s’il n’existe pas déjà.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>
Paramètres
- resourceType
- PathResourceTypeModel
Le type de ressource doit être « file » pour DataLakeFileClient.
- options
- PathCreateIfNotExistsOptions
Retours
Promise<PathCreateIfNotExistsResponse>
flush(number, FileFlushOptions)
Vide (écrit) les données précédemment ajoutées à un fichier.
function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>
Paramètres
- position
-
number
Position du fichier à vider. Ce paramètre permet à l’appelant de charger des données en parallèle et de contrôler l’ordre dans lequel il est ajouté au fichier. Il est nécessaire lors du chargement des données à ajouter au fichier et lors du vidage des données précédemment chargées dans le fichier. La valeur doit être la position où les données doivent être ajoutées. Les données chargées ne sont pas immédiatement vidées ou écrites dans le fichier. Pour vider, les données précédemment chargées doivent être contiguës, le paramètre de position doit être spécifié et égal à la longueur du fichier une fois que toutes les données ont été écrites, et il ne doit pas y avoir de corps d’entité de requête inclus dans la requête.
- options
- FileFlushOptions
Optionnel. Options lors du vidage des données.
Retours
Promise<FileFlushResponse>
generateSasStringToSign(FileGenerateSasUrlOptions)
Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.
Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateSasStringToSign(options: FileGenerateSasUrlOptions): string
Paramètres
- options
- FileGenerateSasUrlOptions
Paramètres facultatifs.
Retours
string
URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.
generateSasUrl(FileGenerateSasUrlOptions)
Disponible uniquement pour les clients construits avec des informations d’identification de clé partagée.
Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par les informations d’identification de clé partagée du client.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>
Paramètres
- options
- FileGenerateSasUrlOptions
Paramètres facultatifs.
Retours
Promise<string>
URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.
generateUserDelegationSasStringToSign(FileGenerateSasUrlOptions, UserDelegationKey)
Génère une chaîne à signer pour un URI de signature d’accès partagé de service (SAP) en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateUserDelegationSasStringToSign(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): string
Paramètres
- options
- FileGenerateSasUrlOptions
Paramètres facultatifs.
- userDelegationKey
- UserDelegationKey
Valeur de retour de blobServiceClient.getUserDelegationKey()
Retours
string
URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.
generateUserDelegationSasUrl(FileGenerateSasUrlOptions, UserDelegationKey)
Génère un URI de signature d’accès partagé (SAP) de service en fonction des propriétés et paramètres du client transmis. La SAP est signée par la clé de délégation d’utilisateur d’entrée.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateUserDelegationSasUrl(options: FileGenerateSasUrlOptions, userDelegationKey: UserDelegationKey): Promise<string>
Paramètres
- options
- FileGenerateSasUrlOptions
Paramètres facultatifs.
- userDelegationKey
- UserDelegationKey
Valeur de retour de blobServiceClient.getUserDelegationKey()
Retours
Promise<string>
URI SAP constitué de l’URI de la ressource représentée par ce client, suivi du jeton SAP généré.
query(string, FileQueryOptions)
Requête rapide pour un fichier au format JSON ou CSV.
Exemple d’utilisation (Node.js) :
// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>
Paramètres
- query
-
string
- options
- FileQueryOptions
Retours
Promise<FileReadResponse>
read(number, number, FileReadOptions)
Télécharge un fichier à partir du service, y compris ses métadonnées et ses propriétés.
- Dans Node.js, les données retournent dans un flux lisibleStreamBody
- Dans les navigateurs, les données retournent dans un contenu de promesseAsBlob
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
- Exemple d’utilisation (Node.js) :
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
Exemple d’utilisation (navigateur) :
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);
async function blobToString(blob: Blob): Promise<string> {
const fileReader = new FileReader();
return new Promise<string>((resolve, reject) => {
fileReader.onloadend = (ev: any) => {
resolve(ev.target!.result);
};
fileReader.onerror = reject;
fileReader.readAsText(blob);
});
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Paramètres
- offset
-
number
Optionnel. Offset pour lire le fichier, la valeur par défaut est 0.
- count
-
number
Optionnel. Nombre d’octets à lire, la valeur par défaut lit du décalage à la fin.
- options
- FileReadOptions
Optionnel. Options lors de la lecture du fichier.
Retours
Promise<FileReadResponse>
readToBuffer(Buffer, number, number, FileReadToBufferOptions)
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.
Lit un fichier Data Lake en parallèle dans une mémoire tampon. Le décalage et le nombre sont facultatifs, transmettez 0 pour les deux pour lire l’intégralité du fichier.
Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.
function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Paramètres
- buffer
-
Buffer
Mémoire tampon à remplir, doit avoir une longueur supérieure au nombre
- offset
-
number
À partir de quelle position du fichier Data Lake à lire
- count
-
number
Quantité de données à lire. Lit à la fin lors de la transmission non définie
- options
- FileReadToBufferOptions
Retours
Promise<Buffer>
readToBuffer(number, number, FileReadToBufferOptions)
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME
Lit un fichier Data Lake en parallèle dans une mémoire tampon. Offset et count sont facultatifs, passez 0 pour les deux pour lire l’intégralité du fichier
Avertissement : les mémoires tampons peuvent uniquement prendre en charge les fichiers pouvant atteindre environ un gigaoctet sur des systèmes 32 bits ou environ deux gigaoctets sur des systèmes 64 bits en raison des limitations de Node.js/V8. Pour les fichiers supérieurs à cette taille, envisagez readToFile.
function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Paramètres
- offset
-
number
À partir de quelle position du fichier Data Lake à lire (en octets)
- count
-
number
Quantité de données (en octets) à lire. Lit à la fin lors de la transmission non définie
- options
- FileReadToBufferOptions
Retours
Promise<Buffer>
readToFile(string, number, number, FileReadOptions)
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.
Télécharge un fichier Data Lake dans un fichier local. Échoue si le chemin d’accès du fichier donné se ferme déjà. Le décalage et le nombre sont facultatifs, passent respectivement 0 et non définis pour télécharger l’intégralité du fichier.
function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Paramètres
- filePath
-
string
- offset
-
number
À partir de quelle position du fichier à télécharger.
- count
-
number
Quantité de données à télécharger. Se télécharge à la fin lors de la transmission non définie.
- options
- FileReadOptions
Options de lecture du fichier Data Lake.
Retours
Promise<FileReadResponse>
Données de réponse pour l’opération de lecture de fichier, mais avec readableStreamBody défini sur non défini, car son contenu est déjà lu et écrit dans un fichier local au chemin spécifié.
setExpiry(FileExpiryMode, FileSetExpiryOptions)
Définit une heure d’expiration sur un fichier, une fois cette heure remplie, le fichier est supprimé.
function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>
Paramètres
- mode
- FileExpiryMode
- options
- FileSetExpiryOptions
Retours
Promise<FileSetExpiryResponse>
upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)
Charge une mémoire tampon(Node.js)/Blob/ArrayBuffer/ArrayBufferView dans un fichier.
function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Paramètres
- data
-
Blob | ArrayBuffer | ArrayBufferView | Buffer
Buffer(Node), Blob, ArrayBuffer ou ArrayBufferView
- options
- FileParallelUploadOptions
Retours
Promise<FileUploadResponse>
uploadFile(string, FileParallelUploadOptions)
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.
Charge un fichier local dans un fichier Data Lake.
function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Paramètres
- filePath
-
string
Chemin d’accès complet du fichier local
- options
- FileParallelUploadOptions
Retours
Promise<FileUploadResponse>
uploadStream(Readable, FileParallelUploadOptions)
DISPONIBLE UNIQUEMENT DANS NODE.JS RUNTIME.
Charge un flux Node.js lisible dans un fichier Data Lake. Cette méthode tente de créer un fichier, puis commence à charger un bloc par segment. Assurez-vous que la taille potentielle du flux ne dépasse pas FILE_MAX_SIZE_BYTES et que le nombre potentiel de blocs ne dépasse pas BLOCK_BLOB_MAX_BLOCKS.
CONSEILS D’AMÉLIORATION DES PERFORMANCES :
- Le flux d’entrée highWaterMark est préférable de définir une même valeur avec le paramètre options.chunkSize, ce qui évite les opérations Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Paramètres
- stream
-
Readable
Node.js flux lisible.
- options
- FileParallelUploadOptions
Retours
Promise<FileUploadResponse>
Détails de la méthode héritée
delete(boolean, PathDeleteOptions)
Supprimez le chemin actuel (répertoire ou fichier).
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>
Paramètres
- recursive
-
boolean
Obligatoire et valide uniquement lorsque la ressource est un répertoire. Si la valeur est « true », tous les chemins d’accès sous le répertoire sont supprimés.
- options
- PathDeleteOptions
Optionnel. Options lors de la suppression du chemin d’accès.
Retours
Promise<PathDeleteResponse>
héritée deDataLakePathClient.delete
deleteIfExists(boolean, PathDeleteOptions)
Supprimez le chemin actuel (répertoire ou fichier) s’il existe.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>
Paramètres
- recursive
-
boolean
Obligatoire et valide uniquement lorsque la ressource est un répertoire. Si la valeur est « true », tous les chemins d’accès sous le répertoire sont supprimés.
- options
- PathDeleteOptions
Retours
Promise<PathDeleteIfExistsResponse>
héritée deDataLakePathClient.deleteIfExists
exists(PathExistsOptions)
Retourne true si le fichier Data Lake représenté par ce client existe ; false sinon.
REMARQUE : utilisez cette fonction avec soin, car un fichier existant peut être supprimé par d’autres clients ou applications. Inversement, de nouveaux fichiers peuvent être ajoutés par d’autres clients ou applications une fois cette fonction terminée.
function exists(options?: PathExistsOptions): Promise<boolean>
Paramètres
- options
- PathExistsOptions
options pour l’opération Exists.
Retours
Promise<boolean>
héritée deDataLakePathClient.exists
getAccessControl(PathGetAccessControlOptions)
Retourne les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties
function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>
Paramètres
- options
- PathGetAccessControlOptions
Optionnel. Options lors de l’obtention du contrôle d’accès aux fichiers.
Retours
Promise<PathGetAccessControlResponse>
héritée deDataLakePathClient.getAccessControl
getDataLakeLeaseClient(string)
Obtenez un DataLakeLeaseClient qui gère les baux sur le chemin d’accès (répertoire ou fichier).
function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient
Paramètres
- proposeLeaseId
-
string
Optionnel. ID de bail initial proposé.
Retours
getProperties(PathGetPropertiesOptions)
Retourne toutes les métadonnées définies par l’utilisateur, les propriétés HTTP standard et les propriétés système du chemin d’accès (répertoire ou fichier).
AVERTISSEMENT : l’objet metadata
retourné dans la réponse aura ses clés en minuscules, même s’ils contenaient initialement des caractères majuscules. Cela diffère des clés de métadonnées retournées par les méthodes de DataLakeFileSystemClient qui répertorient les chemins d’accès à l’aide de l’option includeMetadata
, qui conserve leur casse d’origine.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties
function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>
Paramètres
- options
- PathGetPropertiesOptions
Optionnel. Options lors de l’obtention des propriétés de chemin d’accès.
Retours
Promise<PathGetPropertiesResponse>
héritée deDataLakePathClient.getProperties
move(string, PathMoveOptions)
Déplacer le répertoire ou le fichier dans le même système de fichiers.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Paramètres
- destinationPath
-
string
Chemin d’accès au répertoire de destination, tel que « répertoire » ou chemin d’accès au fichier « répertoire/fichier ». Si destinationPath est authentifié avec SAS, ajoutez la signature d’accès partagé au chemin de destination tel que « directory/file ?sasToken ».
- options
- PathMoveOptions
Optionnel. Options lors du déplacement d’un répertoire ou d’un fichier.
Retours
Promise<PathMoveResponse>
héritée deDataLakePathClient.move
move(string, string, PathMoveOptions)
Déplacez le répertoire ou le fichier vers un autre système de fichiers.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Paramètres
- destinationFileSystem
-
string
Système de fichiers de destination tel que « système de fichiers ».
- destinationPath
-
string
Chemin d’accès au répertoire de destination comme « répertoire » ou chemin d’accès au fichier « répertoire/fichier » Si destinationPath est authentifié avec SAS, ajoutez la SAP au chemin de destination tel que « directory/file ?sasToken ».
- options
- PathMoveOptions
Optionnel. Options lors du déplacement d’un répertoire ou d’un fichier.
Retours
Promise<PathMoveResponse>
héritée deDataLakePathClient.move
removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Supprime le contrôle d’accès sur un chemin d’accès et un sous-chemin d’accès.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Paramètres
Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.
Optionnel. Options
Retours
setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)
Définissez les données de contrôle d’accès pour un chemin d’accès (répertoire de fichier).
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>
Paramètres
- acl
Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.
- options
- PathSetAccessControlOptions
Optionnel. Options lors de la définition du contrôle d’accès du chemin d’accès.
Retours
Promise<PathSetAccessControlResponse>
héritée deDataLakePathClient.setAccessControl
setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Définit le contrôle d’accès sur un chemin d’accès et des sous-chemins.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Paramètres
- acl
Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.
Optionnel. Options
Retours
setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)
Définit les propriétés système sur le chemin d’accès (répertoire ou fichier).
Si aucune valeur n’est fournie ou aucune valeur fournie pour les en-têtes HTTP d’objet blob spécifiés, ces en-têtes HTTP d’objet blob sans valeur seront effacés.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties
function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>
Paramètres
- httpHeaders
- PathHttpHeaders
- options
- PathSetHttpHeadersOptions
Retours
Promise<PathSetHttpHeadersResponse>
héritée deDataLakePathClient.setHttpHeaders
setMetadata(Metadata, PathSetMetadataOptions)
Définit les métadonnées définies par l’utilisateur pour le chemin d’accès spécifié (répertoire de fichier) sous la forme d’une ou plusieurs paires nom-valeur.
Si aucune option n’est fournie ou aucune métadonnées définie dans le paramètre, les métadonnées de chemin d’accès sont supprimées.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata
function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>
Paramètres
- metadata
- Metadata
Optionnel. Remplacez les métadonnées existantes par cette valeur. Si aucune valeur n’est fournie, les métadonnées existantes seront supprimées.
- options
- PathSetMetadataOptions
Optionnel. Options lors de la définition des métadonnées de chemin d’accès.
Retours
Promise<PathSetMetadataResponse>
héritée deDataLakePathClient.setMetadata
setPermissions(PathPermissions, PathSetPermissionsOptions)
Définit les autorisations de fichier sur un chemin d’accès.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>
Paramètres
- permissions
- PathPermissions
Autorisations d’accès POSIX pour le propriétaire du fichier, le groupe propriétaire de fichiers et d’autres utilisateurs.
- options
- PathSetPermissionsOptions
Optionnel. Options lors de la définition des autorisations de chemin d’accès.
Retours
Promise<PathSetPermissionsResponse>
héritée deDataLakePathClient.setPermissions
toDirectoryClient()
Convertissez dataLakePathClient actuel en DataLakeDirectoryClient si le chemin actuel est un répertoire.
function toDirectoryClient(): DataLakeDirectoryClient
Retours
héritée deDataLakePathClient.toDirectoryClient
toFileClient()
Convertissez dataLakePathClient actuel en DataLakeFileClient si le chemin actuel est un fichier.
function toFileClient(): DataLakeFileClient
Retours
héritée deDataLakePathClient.toFileClient
updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Modifie le contrôle d’accès sur un chemin d’accès et des sous-chemins.
Voir https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Paramètres
- acl
Liste de contrôle d’accès POSIX pour le fichier ou le répertoire.
Optionnel. Options