In diesem Artikel werden Azure-Lösungen zu Erstellung, Training, Bereitstellung und Verwendung benutzerdefinierter Dokumentverarbeitungsmodelle beschrieben. Diese Azure-Dienste bieten auch Benutzeroberflächenfunktionen (UI) für Bezeichnung oder Tagging in der Textverarbeitung.
Aufbau
Laden Sie eine Visio-Datei dieser Architektur herunter.
Datenfluss
Orchestratoren wie Azure Logic Apps, Azure Data Factory oder Azure Functions nehmen Nachrichten und Anlagen von E-Mail-Servern und Dateien von FTP-Servern oder Webanwendungen auf.
Azure Functions und Logic Apps ermöglichen serverlose Workloads. Der von Ihnen ausgewählte Dienst hängt von Ihrer Einstellung für Dienstfunktionen wie Entwicklung, Connectors, Verwaltung und Ausführungskontext ab. Weitere Informationen finden Sie unter Vergleich zwischen Azure Functions und Azure Logic Apps.
Berücksichtigen Sie die Verwendung von Azure Data Factory für Massendatenverschiebung.
Die Orchestratoren senden aufgenommene Daten an Azure Blob Storage oder Data Lake Storage, organisieren die Daten über Datenspeicher basierend auf Merkmalen wie Dateierweiterungen oder Kunden.
Dokumentintelligenz-Studio, Language Studio oder Azure Machine Learning Studio beschriften und taggen Textdaten und erstellen benutzerdefinierte Modelle. Sie können diese drei Dienste unabhängig oder in verschiedenen Kombinationen verwenden, um verschiedene Anwendungsfälle zu behandeln.
Wenn das Dokument das Extrahieren von Schlüsselwertpaaren oder das Erstellen einer benutzerdefinierten Tabelle aus einem Bildformat oder einer PDF erfordert, verwenden Sie Document Intelligence Studio, um die Daten zu markieren und das benutzerdefinierte Modell zu trainieren. Wenn es vor dem Aufrufen des korrekten Extraktionsmodells eine Anforderung gibt, den Typ des Dokuments zu identifizieren, verwenden Sie Document Intelligence Studio, um die Dokumente zu bezeichnen.
Für die Dokumentklassifizierung basierend auf Inhalten oder für die domänenspezifische Entitätsextraktion können Sie eine benutzerdefinierte Textklassifizierung oder ein NER-Modell (Erkennung benannter Entitäten) in Language Studio trainieren.
Machine Learning Studio bietet Datenbeschriftungsfunktionen für die Textklassifizierung oder die Entitätsextraktion, die mit Open-Source-Frameworks wie PyTorch oder TensorFlow verwendet werden können. Azure Machine Learning Studio bietet einen Modellkatalog mit Foundation-Modellen. Diese Foundation-Modelle bieten Optimierungsfunktionen für verschiedene Aufgaben wie Textklassifizierung, Fragen und Antworten und Zusammenfassung. Verwenden Sie für die Feinabstimmung von Foundation-Modellen Machine Learning Studio-UI oder Code.
So stellen Sie die benutzerdefinierten Modelle bereit und verwenden Sie sie als Rückschluss:
Azure KI Dokument Intelligenz verfügt über eine integrierte Modellimplementierung. Verwenden Sie Document Intelligence-SDKs oder die REST-API, um benutzerdefinierte Modelle für die Inferenz anzuwenden. Fügen Sie je nach API-Version die Modell-ID oder den benutzerdefinierten Modellnamen in die URL der Dokumentintelligenz-Anforderung ein. Dokumentintelligenz erfordert keine weiteren Bereitstellungsschritte.
Language Studio bietet eine Option zum Bereitstellen benutzerdefinierter Sprachmodelle. Rufen Sie die Vorhersage-URL des REST-Endpunkts ab, indem Sie das zu bereitstellende Modell auswählen. Sie können modellieren, indem Sie entweder den REST-Endpunkt oder die Azure SDK-Clientbibliotheken verwenden.
Machine Learning stellt benutzerdefinierte Modelle für online oder im Batch verwaltete Machine Learning-Endpunkte bereit. Sie können das Machine Learning SDK für die Bereitstellung zu Azure Kubernetes Service (AKS) als Webdienst verwenden.
Feinabgestimmte Foundation-Modelle werden aus dem Modellkatalog auf Endpunkten für die Inferenzierung bereitgestellt.
Komponenten
Logic Apps ist Teil von Azure Integration Services. Azure Logic Apps erstellt automatisierte Workflows, die Ihre Anwendungen, Daten, Dienste und Systeme integrieren. Mit verwalteten Connectors für Dienste wie Azure Storage und Microsoft 365 können Sie Workflows auslösen, wenn eine Datei im Speicherkonto oder in einer E-Mail empfangen wird.
Data Factory ist ein verwalteter Cloud-Extrakt, transformations-, Load-Dienst (ETL) für die Datenintegration und Transformation. Data Factory kann Transformationsaktivitäten zu einer Pipeline hinzufügen, die das Aufrufen eines REST-Endpunkts oder Ausführen eines Notebooks mit den aufgenommenen Daten einschließen.
Azure Functions ist ein serverloses Berechnungsdienst, der ereignisgesteuerte Workloads mit kurzlebigen Prozessen hosten kann.
Blob Storage ist die Objektspeicherlösung für rohe Dateien in diesem Szenario. Blob Storage unterstützt Bibliotheken für mehrere Sprachen, z. B. .NET, Node.js und Python. Anwendungen können über HTTP/HTTPS auf Dateien im Blob-Speicher zugreifen. Blob Storage verfügt über heiße, kalte und Archivspeicherebenen, um Kostenoptimierung für das Speichern großer Datenmengen zu unterstützen.
Data Lake Storage basiert auf Azure Blob Storage und bietet eine Reihe von Funktionen für die Big Data-Analyse. Data Lake Storage behält die Kosteneffizienz von Blob Storage bei und bietet Features wie die Sicherheits- und Dateisystemsemantik auf Dateiebene mit hierarchischem Namespace.
Document Intelligence ist Teil der Azure KI Services. Document Intelligence verfügt über integrierte Dokumentanalysefunktionen, um gedruckten und handschriftlichen Text, Tabellen und Schlüsselwertpaare zu extrahieren. Dokumentintelligenz verfügt über vordefinierte Modelle zum Extrahieren von Daten aus Rechnungen, Dokumenten, Quittungen, Ausweisen und Visitenkarten. Document Intelligence bietet auch eine Custom Template-Formmodell und ein Custom Neural-Dokumentmodell, mit denen Sie benutzerdefinierte Modelle trainieren und bereitstellen können.
Document Intelligence Studio bietet eine Benutzeroberfläche zum Erkunden der Features und Modelle von Document Intelligence sowie zum Erstellen, Markieren, Trainieren und Bereitstellen benutzerdefinierter Modelle.
Azure KI Language konsolidiert die Azure-Dienste für die linguistische Datenverarbeitung. Die Suite bietet vordefinierte und anpassbare Optionen. Weitere Informationen finden Sie in den verfügbaren Features der Azure KI Language.
Language Studio bietet eine Benutzeroberfläche zum Untersuchen und Analysieren der Azure KI Language-Funktionen. Language Studio bietet außerdem Optionen zum Erstellen, Taggen, Training und Bereitstellen benutzerdefinierter Modelle.
Azure Machine Learning ist eine offene Plattform zum Verwalten der Entwicklung und Bereitstellung von Machine Learning-Modellen im großen Stil.
- Azure Machine Learning Studio bietet Datenbezeichnungsoptionen für Bilder und Text.
- Exportieren bezeichneten Daten als COCO- oder Azure Machine Learning-Datasets. Sie können die Datasets für Training und Bereitstellen von Modellen in Azure Machine Learning-Notebooks verwenden.
- Bereitstellen von Modellen in AKS als Webdienst für Echtzeit-Inferencing im großen Stil oder als verwaltete Endpunkte für Echtzeit- und Batch-Inferencing.
Alternativen
Sie können diesem Szenario weitere Workflows basierend auf bestimmten Anwendungsfällen hinzufügen.
Wenn das Dokument ein Bild- oder PDF-Format hat, können Sie die Daten mithilfe der Azure Computer Vision, Document Intelligence Read API oder Open-Source-Bibliotheken extrahieren.
Sie können Dokument- und Konversationszusammenfassungen mithilfe des vordefinierten Modells in Azure KI Language ausführen.
Verwenden Sie Vorverarbeitungscode, um Textverarbeitungsschritte auszuführen. Zu diesen Schritten gehören Bereinigung, das Entfernen von Wörtern, Lemmatisierung, Stemming und Textzusammenfassung je nach den Anforderungen an die Dokumentverarbeitung. Sie können den Code als REST-APIs für die Automatisierung verfügbar machen. Führen Sie diese Schritte manuell aus oder automatisieren Sie sie, indem Sie den Erfassungsprozess von Logik Apps oder Azure Functions integrieren.
Sie können Azure KI Studio für die Feineinstellung und Bereitstellung von Foundation-Modellen verwenden.
Szenariodetails
Die Dokumentverarbeitung ist ein breiter Bereich. Es kann schwierig sein, alle Ihre Dokumentverarbeitungsanforderungen mit den vordefinierten Modellen in Document Intelligence und Azure KI Language zu erfüllen. Möglicherweise müssen Sie benutzerdefinierte Modelle erstellen, um die Dokumentverarbeitung für verschiedene Anwendungen und Domänen zu automatisieren.
Zu den wichtigsten Herausforderungen bei der Modellanpassung gehören:
- Kennzeichnen oder Taggen von Textdaten mit relevanten Schlüsselwertpaaren, um Text für die Extraktion zu klassifizieren.
- Sicheres bereitstellen von Modellen im großen Stil für einfache Integration bei der Nutzung von Anwendungen.
Mögliche Anwendungsfälle
Die folgenden Anwendungsfälle können benutzerdefinierte Modelle für die Dokumentverarbeitung nutzen:
- Erstellen Sie benutzerdefinierte NER- und Textklassifizierungsmodelle basierend auf Open-Source-Frameworks.
- Extrahieren benutzerdefinierter Schlüsselwerte aus Dokumenten für verschiedene Branchenvertikale wie Versicherungs- und Gesundheitsversorgung.
- Taggen und Extrahieren spezifischer domänenabhängiger Entitäten über die vordefinierten NER-Modelle hinaus, für Domänen wie Sicherheit oder Finanzen.
- Erstellen benutzerdefinierter Tabellen aus Dokumenten.
- Extrahieren von Signaturen.
- Bezeichnen und Klassifizieren von E-Mails oder anderen Dokumenten basierend auf Inhalten.
Überlegungen
Diese Überlegungen beruhen auf den Säulen des Azure Well-Architected Frameworks, d. h. einer Reihe von Grundsätzen, mit denen die Qualität von Workloads verbessert werden kann. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.
In diesem Beispiel hängt die Implementierung jeder Säule von der optimalen Konfiguration und Verwendung jedes Azure-Diensts ab.
Zuverlässigkeit
Zuverlässigkeit stellt sicher, dass Ihre Anwendung Ihre Verpflichtungen gegenüber den Kunden erfüllen kann. Weitere Informationen finden Sie in der Überblick über die Säule „Zuverlässigkeit“.
Verfügbarkeit
Die Vereinbarungen zum Servicelevel (SLAs) für jede Architekturkomponente finden Sie in Vereinbarungen zum Servicelevel (Service Level Agreements, SLAs) für Onlinedienste.
Konfigurationsoptionen zum Entwerfen von Hochverfügbarkeitsanwendungen mit Azure Storage-Konten finden Sie unter Verwenden von Geo-Redundanz zum Entwerfen von hochverfügbaren Anwendungen.
Resilienz
Behandeln Sie Fehlermodi einzelner Dienste wie Azure Functions und Azure Storage, um die Resilienz der Berechnungsdienste und Datenspeicher in diesem Szenario zu gewährleisten. Weitere Informationen finden Sie unter Resilienzcheckliste für bestimmte Azure-Dienste.
Für Document Intelligence sollten Sie Ihre Document Intelligence-Modelle sichern und wiederherstellen.
Für benutzerdefinierte Textklassifizierung mit Azure KI Language sichern und stellen Sie die benutzerdefinierte Textklassifizierungsmodelle wieder her.
Für benutzerdefinierte NER in Azure KI Language sichern und stellen Sie Ihre benutzerdefinierte NER-Modelle wieder her.
Azure Machine Learning hängt von Komponentendiensten wie Blob Storage, Compute-Diensten und Azure Kubernetes Service (AKS) ab. Um die Ausfallsicherheit für Azure Machine Learning bereitzustellen, konfigurieren Sie jeden dieser Dienste als resilient. Weitere Informationen finden Sie unter Failover für Business Continuity & Disaster Recovery.
Sicherheit
Sicherheit bietet Schutz vor vorsätzlichen Angriffen und dem Missbrauch Ihrer wertvollen Daten und Systeme. Weitere Informationen finden Sie unter Übersicht über die Säule „Sicherheit“.
- Implementieren Sie Datenschutz-, Identitäts- und Zugriffsverwaltungsempfehlungen sowie Netzwerksicherheitsempfehlungen für Blob Storage, KI Services für Document Intelligence, Language Studio und Azure Machine Learning.
Kostenoptimierung
Bei der Kostenoptimierung geht es um die Suche nach Möglichkeiten, unnötige Ausgaben zu reduzieren und die Betriebseffizienz zu verbessern. Weitere Informationen finden Sie unter Übersicht über die Säule „Kostenoptimierung“.
Die Gesamtkosten für die Implementierung dieser Lösung hängen von den Preisen der von Ihnen ausgewählten Dienste ab.
Die Hauptkosten für diese Lösung sind:
Die Computekosten für das Training und die Bereitstellung von Machine Learning-Modellen.
Wählen Sie den richtigen Knotentyp, die Clustergröße und die Anzahl der Knoten aus, um Kosten optimieren zu können. Für das Training bietet Machine Learning Optionen zum Festlegen der Mindestzahl der Knoten für einen Computecluster auf Null und zum Festlegen der Leerlaufzeit vor der Abwärtsskalierung. Weitere Informationen finden Sie unter Verwalten und Optimieren von Machine Learning-Kosten.
Dauer und Aktivitäten der Datenorchestrierung. Für Azure Data Factory basieren die Gebühren für Kopieraktivitäten auf der Azure Integration Runtime auf der Anzahl der verwendeten Datenintegrationseinheiten (DIUs) und der Ausführungsdauer. Hinzugefügte Orchestrierungsaktivitätsläufe werden ebenfalls berechnet, basierend auf ihrer Anzahl.
Logik-Apps-Preispläne hängen von den Ressourcen ab, die Sie erstellen und verwenden. In den folgenden Artikeln können Sie den richtigen Plan für bestimmte Anwendungsfälle auswählen:
Weitere Informationen zur Preisberechnung spezifischer Komponenten finden Sie in den folgenden Ressourcen:
- Azure AI Document Intelligence – Preise
- Azure Functions – Preise
- Logic Apps – Preise
- Azure Data Factory – Preise
- Preise für Azure Blob Storage
- Azure KI Language – Preise
- Azure Machine Learning – Preise
Verwenden Sie den Azure-Preisrechner, um Ihre ausgewählten Komponentenoptionen hinzuzufügen und die Gesamtlösungskosten zu schätzen.
Effiziente Leistung
Leistungseffizienz ist die Fähigkeit Ihrer Workload, auf effiziente Weise eine den Anforderungen der Benutzer entsprechende Skalierung auszuführen. Weitere Informationen finden Sie unter Übersicht über die Säule „Leistungseffizienz“.
Skalierbarkeit
Um Azure Functions automatisch oder manuell zu skalieren, wählen Sie den richtigen Hostingplan aus.
Standardmäßig unterstützt Dokumentintelligenz 15 gleichzeitige Anforderungen pro Sekunde. Um ein erhöhtes Kontingent anzufordern, erstellen Sie ein Azure-Supportticket.
Für benutzerdefinierte Azure Machine Learning-Modelle, die als Webdienste auf AKS gehostet werden, wird das
azureml-fe
-Front-End automatisch nach Bedarf skaliert. Diese Komponente leitet auch eingehende Rückschlussanforderungen an bereitgestellte Dienste weiter.Unterstützen Sie die automatische Skalierung für Bereitstellungen als verwaltete Endpunkte, indem Sie die Automatische Skalierung mit dem Azure Monitor-Feature für die automatische Skalierung integrieren.
Die API-Dienstgrenzwerte für benutzerdefinierte NER und benutzerdefinierte Textklassifizierung für die Ableitung sind 20 GET- oder POST-Anforderungen pro Minute.
Beitragende
Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben.
Hauptautor:
- Jyotsna Ravi | Sr. Customer Engineer
Melden Sie sich bei LinkedIn an, um nicht öffentliche LinkedIn-Profile anzuzeigen.
Nächste Schritte
- Erste Schritte: Dokument Intelligenz-Studio
- Verwenden von Document Intelligence-Modellen über SDKs oder REST-API
- Schnellstart: Erste Schritte mit Language Studio
- Was ist optische Zeichenerkennung?
- Konfigurieren von Azure Functions mit einem virtuellen Netzwerk