Erkunden von Strategien für die Modellimplementierung

Abgeschlossen

Nachdem Sie Ihr Modell trainiert haben, ist der nächste Schritt die Bereitstellung. Um Ihr Modell effektiv bereitzustellen, sollten Sie MLflow verwenden.

MLflow hilft Ihnen, den gesamten Prozess zu verwalten, von der Protokollierung von Parametern und Metriken bis hin zum Packen und Freigeben Ihres Modells.

Sie müssen auch überlegen, wie Sie das Modell bereitstellen möchten. Sie können zwischen Echtzeitvorhersagen mit Mosaik AI Model Serving und Batchvorhersagen mit Azure Databricks-Aufträgen wählen. Alternativ können Sie durch eine Integration mit Azure Machine Learning die integrierten Funktionen verwenden, um Ihr Modell auf einem Echtzeit- oder Batchendpunkt bereitzustellen.

Unabhängig davon, für welche Vorgehensweise Sie sich entscheiden, stellt die Modellimplementierung sicher, dass Ihr Modell für die Produktion bereit ist und die benötigten Erkenntnisse liefern kann.

Verwenden von MLflow für die Modellverwaltung

Azure Databricks funktioniert mit MLflow. MLflow ist eine Open-Source-Plattform zum Verwalten des gesamten Lebenszyklus beim maschinellen Lernen.

Mit MLflow können Sie Experimente nachverfolgen, Code packen und Modelle freigeben und bereitstellen. MLflow stellt sicher, dass Ihre Modelle von der Entwicklung bis zur Produktion konsistent verwaltet werden.

Mit dem Nachverfolgungsserver von MLflow können Sie Parameter, Metriken und Artefakte protokollieren. Die Nachverfolgungsfunktionen von MLflow ermöglichen eine umfassende Aufzeichnung der Modellleistung und helfen bei der Reproduzierbarkeit.

Bereitstellen von Modellen mit Databricks

Das Bereitstellen von Modellen mit Azure Databricks umfasst die Verwendung von Mosaik AI Model Serving zum Erstellen von APIs auf Produktionsniveau aus benutzerdefinierten Python-Modellen.

Benutzerdefinierte Python-Modelle sind Modelle, die Sie mit Bibliotheken wie scikit-learn, XGBoost, PyTorch und HuggingFace-Transformatoren trainieren.

Nach dem Training protokollieren Sie Ihr trainiertes Modell im MLflow-Format und registrieren die MLflow-Ressourcen in Unity Catalog- oder der Arbeitsbereichsregistrierung.

Nach der Registrierung können Sie Model Serving-Endpunkte erstellen und abfragen, um sicherzustellen, dass Ihre Modelle für Echtzeitvorhersagen bereit sind, indem Sie den Endpunkt in Ihre Lösungen integrieren.

Tipp

Weitere Informationen finden Sie unter Bereitstellen und Abfragen eines benutzerdefinierten Modells.

Generieren von Batchvorhersagen

Bei Anwendungsfällen, in denen keine Echtzeitvorhersagen erforderlich sind, können Batchrückschlüsse eine effektivere Bereitstellungsstrategie darstellen. Batchvorhersagen werden häufig in Szenarien wie dem Generieren regelmäßiger Berichte oder dem Aktualisieren von Data Warehouses mit neuen Erkenntnissen verwendet.

Azure Databricks kann mit Apache Spark große Datasets parallel verarbeiten und eignet sich daher gut für Batchrückschlussaufgaben.

Wenn Sie einen Azure Databricks-Auftrag ausführen, kann Ihr Modell geplant auf große Datenmengen angewandt werden. Sie können Batchvorhersagen oder -erkenntnisse generieren, die gespeichert werden können, um bei Bedarf darauf zuzugreifen.

Tipp

Weitere Informationen finden Sie unter Bereitstellen von Modellen für Batchrückschlüsse und -vorhersagen.

Integrieren mit Azure Machine Learning

Azure Databricks ist mit Azure Machine Learning integriert, sodass Sie Modelle auf Endpunkten im Azure Machine Learning-Arbeitsbereich bereitstellen können.

Sowohl Azure Databricks als auch Azure Machine Learning verwenden für die Modellverwaltung MLflow. Sie können ein Modell in Azure Databricks trainieren und als MLflow-Modell speichern. Anschließend können Sie das MLflow-Modell im Azure Machine Learning-Arbeitsbereich registrieren, sodass Sie es ganz einfach auf einem Batch- oder Echtzeitendpunkt bereitstellen können.

Tipp

Weitere Informationen finden Sie unter Azure Machine Learning-Endpunkte für Rückschlüsse in der Produktion.