Hızlı Başlangıç: Azure CLI kullanarak Azure Data Factory oluşturma
Bu hızlı başlangıçta Azure Data Factory oluşturmak için Azure CLI'nin nasıl kullanılacağı açıklanmaktadır. Bu veri fabrikasında oluşturduğunuz işlem hattı, verileri bir Azure Blob Depolama bir klasörden başka bir klasöre kopyalar. Azure Data Factory kullanarak verileri dönüştürme hakkında bilgi için bkz . Azure Data Factory'de verileri dönüştürme.
Azure Data Factory hizmetine giriş bilgileri için bkz. Azure Data Factory'ye giriş.
Azure aboneliğiniz yoksa başlamadan önce ücretsiz bir hesap oluşturun.
Önkoşullar
Azure Cloud Shell'de Bash ortamını kullanın. Daha fazla bilgi için bkz . Azure Cloud Shell'de Bash için hızlı başlangıç.
CLI başvuru komutlarını yerel olarak çalıştırmayı tercih ediyorsanız Azure CLI'yı yükleyin . Windows veya macOS üzerinde çalışıyorsanız Azure CLI’yi bir Docker kapsayıcısında çalıştırmayı değerlendirin. Daha fazla bilgi için bkz . Docker kapsayıcısında Azure CLI'yi çalıştırma.
Yerel yükleme kullanıyorsanız az login komutunu kullanarak Azure CLI ile oturum açın. Kimlik doğrulama işlemini tamamlamak için terminalinizde görüntülenen adımları izleyin. Diğer oturum açma seçenekleri için bkz . Azure CLI ile oturum açma.
İstendiğinde, ilk kullanımda Azure CLI uzantısını yükleyin. Uzantılar hakkında daha fazla bilgi için bkz. Azure CLI ile uzantıları kullanma.
Yüklü sürümü ve bağımlı kitaplıkları bulmak için az version komutunu çalıştırın. En son sürüme yükseltmek için az upgrade komutunu çalıştırın.
Dekont
Data Factory örnekleri oluşturmak için, Azure’da oturum açarken kullandığınız kullanıcı hesabı, katkıda bulunan, sahip veya yönetici rollerinin üyesi ya da bir Azure aboneliğinin yöneticisi olmalıdır. Daha fazla bilgi için bkz. Azure rolleri.
Kapsayıcı ve test dosyası hazırlama
Bu hızlı başlangıçta, dosya içeren bir kapsayıcı içeren bir Azure Depolama hesabı kullanılır.
adlı
ADFQuickStartRG
bir kaynak grubu oluşturmak için az group create komutunu kullanın:az group create --name ADFQuickStartRG --location eastus
az storage account create komutunu kullanarak bir depolama hesabı oluşturun :
az storage account create --resource-group ADFQuickStartRG \ --name adfquickstartstorage --location eastus
az storage container create komutunu kullanarak adlı
adftutorial
bir kapsayıcı oluşturun:az storage container create --resource-group ADFQuickStartRG --name adftutorial \ --account-name adfquickstartstorage --auth-mode key
Yerel dizinde karşıya yüklenecek adlı
emp.txt
bir dosya oluşturun. Azure Cloud Shell'de çalışıyorsanız Bash komutunu kullanarak geçerli çalışma dizininiecho $PWD
bulabilirsiniz. Dosya oluşturmak için gibicat
standart Bash komutlarını kullanabilirsiniz:cat > emp.txt This is text.
Yeni dosyanızı kaydetmek için Ctrl+D tuşlarını kullanın.
Yeni dosyayı Azure depolama kapsayıcınıza yüklemek için az storage blob upload komutunu kullanın:
az storage blob upload --account-name adfquickstartstorage --name input/emp.txt \ --container-name adftutorial --file emp.txt --auth-mode key
Bu komut adlı
input
yeni bir klasöre yüklenir.
Veri fabrikası oluşturma
Azure veri fabrikası oluşturmak için az datafactory create komutunu çalıştırın:
az datafactory create --resource-group ADFQuickStartRG \
--factory-name ADFTutorialFactory
Önemli
değerini, ADFTutorialFactorySP1127 gibi genel olarak benzersiz bir veri fabrikası adıyla değiştirin ADFTutorialFactory
.
oluşturduğunuz veri fabrikasını az datafactory show komutunu kullanarak görebilirsiniz:
az datafactory show --resource-group ADFQuickStartRG \
--factory-name ADFTutorialFactory
Bağlı hizmet ve veri kümeleri oluşturma
Ardından bağlı bir hizmet ve iki veri kümesi oluşturun.
az storage account show-connection-string komutunu kullanarak depolama hesabınız için bağlantı dizesi alın:
az storage account show-connection-string --resource-group ADFQuickStartRG \ --name adfquickstartstorage --key primary
Çalışma dizininizde, önceki adımdaki kendi bağlantı dizesi içeren bu içeriğe sahip bir JSON dosyası oluşturun. Dosyayı
AzureStorageLinkedService.json
adlandırın:{ "type": "AzureBlobStorage", "typeProperties": { "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountName>;AccountKey=<accountKey>;EndpointSuffix=core.windows.net" } }
az datafactory linked-service create komutunu kullanarak adlı
AzureStorageLinkedService
bir bağlı hizmet oluşturun:az datafactory linked-service create --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --linked-service-name AzureStorageLinkedService \ --properties AzureStorageLinkedService.json
Çalışma dizininizde bu içeriğe sahip adlı
InputDataset.json
bir JSON dosyası oluşturun:{ "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "fileName": "emp.txt", "folderPath": "input", "container": "adftutorial" } } }
az datafactory dataset create komutunu kullanarak adlı
InputDataset
bir giriş veri kümesi oluşturun:az datafactory dataset create --resource-group ADFQuickStartRG \ --dataset-name InputDataset --factory-name ADFTutorialFactory \ --properties InputDataset.json
Çalışma dizininizde bu içeriğe sahip adlı
OutputDataset.json
bir JSON dosyası oluşturun:{ "linkedServiceName": { "referenceName": "AzureStorageLinkedService", "type": "LinkedServiceReference" }, "annotations": [], "type": "Binary", "typeProperties": { "location": { "type": "AzureBlobStorageLocation", "folderPath": "output", "container": "adftutorial" } } }
az datafactory dataset create komutunu kullanarak adlı
OutputDataset
bir çıkış veri kümesi oluşturun:az datafactory dataset create --resource-group ADFQuickStartRG \ --dataset-name OutputDataset --factory-name ADFTutorialFactory \ --properties OutputDataset.json
İşlem hattını oluşturma ve çalıştırma
Son olarak işlem hattını oluşturun ve çalıştırın.
Çalışma dizininizde adlı bu içeriğe
Adfv2QuickStartPipeline.json
sahip bir JSON dosyası oluşturun:{ "name": "Adfv2QuickStartPipeline", "properties": { "activities": [ { "name": "CopyFromBlobToBlob", "type": "Copy", "dependsOn": [], "policy": { "timeout": "7.00:00:00", "retry": 0, "retryIntervalInSeconds": 30, "secureOutput": false, "secureInput": false }, "userProperties": [], "typeProperties": { "source": { "type": "BinarySource", "storeSettings": { "type": "AzureBlobStorageReadSettings", "recursive": true } }, "sink": { "type": "BinarySink", "storeSettings": { "type": "AzureBlobStorageWriteSettings" } }, "enableStaging": false }, "inputs": [ { "referenceName": "InputDataset", "type": "DatasetReference" } ], "outputs": [ { "referenceName": "OutputDataset", "type": "DatasetReference" } ] } ], "annotations": [] } }
az datafactory pipeline create komutunu kullanarak adlı
Adfv2QuickStartPipeline
bir işlem hattı oluşturun:az datafactory pipeline create --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --name Adfv2QuickStartPipeline \ --pipeline Adfv2QuickStartPipeline.json
az datafactory pipeline create-run komutunu kullanarak işlem hattını çalıştırın :
az datafactory pipeline create-run --resource-group ADFQuickStartRG \ --name Adfv2QuickStartPipeline --factory-name ADFTutorialFactory
Bu komut bir çalıştırma kimliği döndürür. Sonraki komutta kullanmak üzere kopyalayın.
az datafactory pipeline-run show komutunu kullanarak işlem hattı çalıştırmasının başarılı olduğunu doğrulayın:
az datafactory pipeline-run show --resource-group ADFQuickStartRG \ --factory-name ADFTutorialFactory --run-id 00000000-0000-0000-0000-000000000000
Azure portalını kullanarak işlem hattınızın beklendiği gibi çalıştığını da doğrulayabilirsiniz. Daha fazla bilgi için bkz . Dağıtılan kaynakları gözden geçirme.
Kaynakları temizleme
Bu hızlı başlangıçtaki tüm kaynaklar aynı kaynak grubunun bir parçasıdır. Tümünü kaldırmak için az group delete komutunu kullanın:
az group delete --name ADFQuickStartRG
Bu kaynak grubunu başka bir şey için kullanıyorsanız tek tek kaynakları silin. Örneğin, bağlı hizmeti kaldırmak için az datafactory linked-service delete komutunu kullanın.
Bu hızlı başlangıçta aşağıdaki JSON dosyalarını oluşturdunuz:
- Azure Depolama LinkedService.json
- InputDataset.json
- OutputDataset.json
- Adfv2QuickStartPipeline.json
Standart Bash komutlarını kullanarak bunları silin.