Freigeben über


Wartungsrichtlinie für generative KI-Modelle

Dieser Artikel beschreibt die Databricks-Modellwartungsrichtlinie für die Pay-Per-Token- und die Mosaic KI Model Trainingsangebote der Foundation Model-API.

Damit weiterhin die modernsten Modelle unterstützt werden, wird Databricks möglicherweise die unterstützten Modelle aktualisieren oder ältere Modelle für die Foundation Model-APIs (Pay-per-Token) und das Mosaic-KI-Modell-Training ausmustern.

Modelldeaktivierungsrichtlinie

Die folgende Ruhestandsregelung gilt nur für unterstützte Chat- und Abschlussmodelle in den Foundation Model APIs Pay-per-Token und Mosaic KI-Modell Training Angeboten.

Wenn ein Modells ausgemustert wird, werden von Databricks die folgenden Schritte ausgeführt, um die Kunden zu benachrichtigen:

  • Auf der Modellkarte auf der Seite Bereitstellung des Databricks-Arbeitsbereichs wird eine Warnmeldung angezeigt, die angibt, dass die Ausmusterung des Modells geplant ist.
  • Eine Warnmeldung wird im Dropdownmenü für Mosaic KI Model Training auf der Registerkarte „Experimente“ angezeigt, die angibt, dass die Ausmusterung für das Modell geplant ist.
  • Die entsprechende Dokumentation enthält einen Hinweis, dass die Ausmusterung für das Modell geplant ist. Außerdem ist das Startdatum angegeben, ab dem das Modell nicht mehr unterstützt wird.

Nachdem Kunden über die bevorstehende Ausmusterung des Modells informiert wurden, wird das Modell nach drei Monaten von Databricks außer Betrieb genommen. Während dieses Zeitraums können Kunden entscheiden, ob sie zu einem Endpunkt für bereitgestellten Durchsatz migrieren möchten, um das Modell auch nach Ende des Lebenszyklus weiterhin nutzen zu können.

Eine Liste der derzeit eingestellten Modelle und die geplanten Deaktivierungstermine finden Sie unter eingestellte Modelle.

Modellupdates

Möglicherweise werden von Databricks inkrementelle Updates für Modelle mit tokenbasierter Bezahlung bereitgestellt, um Optimierungsmöglichkeiten zu bieten. Wenn ein Modell upgedatet wird, bleibt die Endpunkt-URL gleich, aber die Modell-ID im Antwortobjekt ändert sich, um das Datum der Aktualisierung widerzuspiegeln. Wenn ein Update für meta-llama/Meta-Llama-3.1-405B am 04.03.2024 bereitgestellt wird, wird der Modellname im Antwortobjekt auf meta-llama/Meta-Llama-3.1-405B-030424 aktualisiert. Databricks verwaltet einen Versionsverlauf der Updates, den Sie einsehen können.

Eingestellte Modelle

Die folgenden Abschnitte fassen die aktuellen und bevorstehenden Modellabkündigungen für die Foundation Model APIs Pay-per-Token- und Mosaic KI-Modell Training-Angebote zusammen.

Mosaic KI-Modell Training Ausfälle

Die folgende Tabelle enthält die Modellfamilien, ihre Ausmusterungsdaten und die empfohlenen Ersatzmodellfamilien für die Mosaic KI-Modell Training Workloads. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.

Modellfamilie Deaktivierungstermin Empfohlene Ersatzmodellfamilie
Meta Llama-3 13. Dezember 2024 Meta Llama-3.1
Meta Llama-2 13. Dezember 2024 Meta Llama-3.1
Code Llama 13. Dezember 2024 Meta Llama-3.1

Foundation Model-APIs Stilllegungen auf der Basis von Token

Die folgende Tabelle zeigt Modelleinstellungen sowie ihre Einstellungstermine und die empfohlenen Ersatzmodelle für die Verwendung mit Foundation Model-APIs für Pay-per-Token-Workloads. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.

Wichtig

Am 23. Juli 2024 ersetzte Meta-Llama-3.1-70B-Instruct die Unterstützung für Meta-Llama-3-70B-Instruct in Pay-per-Token-Endpunkten von Foundation Model-APIs.

Modell Deaktivierungstermin Empfohlenes Ersatzmodell
Meta-Llama-3-70B-Instruct 23. Juli 2024 Meta-Llama-3.1-70B-Instruct
Meta-Llama-2-70B-Chat 30. Oktober 2024 Meta-Llama-3.1-70B-Instruct
MPT 7B Instruct 30. August 2024 Mixtral-8x7B
MPT 30B Instruct 30. August 2024 Mixtral-8x7B

Wenn Sie langfristige Unterstützung für eine bestimmte Modellversion benötigen, empfiehlt Databricks die Verwendung des bereitgestellten Durchsatzes von Foundation Model-APIs für Ihre Bereitstellungsworkloads.