Betreiben einer Lösung für verantwortungsvollen generativen KI-Lösung
Sobald Sie die potenziellen Gefahren identifiziert haben, eine Methode zur Messung ihrer Präsenz entwickelt und Abhilfemaßnahmen in Ihrer Lösung implementiert haben, können Sie Ihre Lösung veröffentlichen. Diese Überlegungen helfen Ihnen im Vorfeld dabei, den Erfolg Ihrer Lösung bei der Veröffentlichung und dem nachfolgenden Betrieb sicherzustellen.
Vollständige Reviews der Vorabversion
Bestimmen Sie vor der Veröffentlichung einer generativen KI-Lösung die verschiedenen Complianceanforderungen in Ihrer Organisation und Ihrer Branche, und stellen Sie sicher, dass die entsprechenden Teams die Möglichkeit erhalten, das System und seine Dokumentation zu überprüfen. Gängigen Compliancereviews schließen Folgendes ein:
- Rechtliche Hinweise
- Datenschutz
- Sicherheit
- Zugriff
Veröffentlichen und Betreiben der Lösung
Eine erfolgreiche Veröffentlichung erfordert eine gewisse Planung und Vorbereitung. Berücksichtigen Sie die folgenden Richtlinien:
- Erstellen Sie einen Veröffentlichungsplan in mehreren Phasen, der es Ihnen erlaubt, die Lösung zunächst einer eingeschränkten Benutzergruppe zur Verfügung zu stellen. Dieser Ansatz ermöglicht es Ihnen, Feedback zu sammeln und Probleme zu identifizieren, bevor Sie die Lösung für ein breiteres Publikum veröffentlichen.
- Erstellen Sie einen Plan zur Reaktion auf Vorfälle, der Schätzungen der Zeit enthält, die für die Reaktion auf unerwartete Vorfälle benötigt wird.
- Erstellen Sie einen Plan für ein Rollback, das die Schritte definiert, die nach einem Vorfall einen vorherigen Zustand der Lösung wiederherstellen.
- Implementieren Sie die Funktion zum sofortigen Blockieren negativer Systemantworten, sobald diese erkannt werden.
- Implementieren Sie eine Funktion zum Blockieren bestimmter Benutzer*innen, Anwendungen oder Client-IP-Adressen im Falle eines Systemmissbrauchs.
- Implementieren Sie eine Möglichkeit für Benutzer*innen, Feedback zu geben und Probleme zu melden. Ermöglichen Sie es Benutzer*innen insbesondere, durch KI generierte Inhalte als „ungenau“, „unvollständig“, „negativ“, „anstößig“ oder anderweitig problematisch zu melden.
- Tracken Sie die Telemetriedaten, mit denen Sie die Benutzerzufriedenheit ermitteln und Funktionslücken oder Herausforderungen bei der Benutzerfreundlichkeit identifizieren können. Die erfassten Telemetriedaten sollten den Datenschutzgesetzen sowie den Richtlinien und Verpflichtungen zum Benutzerdatenschutz Ihrer eigenen Organisation entsprechen.
Nutzen von Azure KI Inhaltssicherheit
Mehrere Azure KI-Ressourcen, einschließlich Language, Vision und Azure OpenAI, bieten mithilfe von Inhaltsfiltern eine integrierte Analyse der Inhalte, mit denen sie arbeiten.
Azure KI Inhaltssicherheit bietet mehr Features, die sich darauf konzentrieren, KI und Copiloten vor Risiken zu schützen. Zu diesen Funktionen gehören die Erkennung von unangemessener oder beleidigender Sprache, sowohl im eingegebenen als auch im generierten Text, und die Erkennung riskanter oder unangemessener Eingaben.
Die Features von Azure KI Inhaltssicherheit umfassen:
Funktion | Funktionalität |
---|---|
Prompt Shields | Überprüft das Risiko von Angriffen auf Sprachmodelle durch Benutzereingaben |
Groundedness-Erkennung | Erkennt, ob Textantworten im Quellinhalt einer Benutzerin bzw. eines Benutzers verankert sind |
Erkennung von geschütztem Material | Sucht nach bekannten urheberrechtlich geschützten Inhalten |
Benutzerdefinierte Kategorien | Definieren benutzerdefinierter Kategorien für alle neuen oder aufkommenden Muster |
Details und Schnellstarts zur Verwendung von Azure KI Inhaltssicherheit finden Sie auf den Dokumentationsseiten für den Dienst.