Freigeben über


Menschliche Überprüfung für die Automatisierung mit einer Eingabeaufforderung

Dieser Artikel betont die entscheidende Rolle der menschlichen Überprüfung bei der Bereitstellung des Features Text mit GPT erstellen in Power Automate. Dieses Feature nutzt das Textgenerierungsmodell von AI Builder, unterstützt vom Azure OpenAI Service. Obwohl diese Modelle sehr effektiv sind, können sie manchmal irreführende oder gefälschte Informationen generieren und sind anfällig für Eingabeaufforderungs-Einschleuseangriffe.

Wichtig

  • AI Builder-Prompts werden auf GPT-4o-Mini- und GPT-4o-Modellen ausgeführt, die vom Azure OpenAI-Dienst unterstützt werden.
  • Diese Funktion ist auf einige Regionen beschränkt.
  • Für diese Funktion gelten möglicherweise Nutzungsbeschränkungen oder Kapazitätseinschränkungen.

Eingabeaufforderungs-Einschleuseangriffe

Ein Eingabeaufforderungs-Einschleuseangriff liegt vor, wenn ein Dritter sich das inhärente Vertrauen des Modells in alle Eingabequellen zunutze macht. Der Angreifende fügt eine Eingabeaufforderung in den Inhalt ein, mit dem ein legitimer Benutzender die KI-Lösung zur Interaktion auffordert, was zu einer Änderung der Ausgabe der KI-Lösung und möglicherweise ihrer Aktionen führt.

Stellen Sie sich beispielsweise ein Szenario vor, in dem ein Citizen Developer die Aktion Text mit GPT erstellen verwendet, um Antworten auf Kundenbeschwerden zu formulieren, die auf verschiedenen Plattformen wie E-Mails, sozialen Medien oder Foren gesammelt wurden. Ein Angreifender könnte aus einer dieser Quellen eine Eingabeaufforderung in den Inhalt einfügen. Dieses Szenario könnte das Modell dazu verleiten, eine Antwort zu generieren, die sich von der beabsichtigten unterscheidet. Die Antwort könnte unangemessen, falsch oder schädlich sein. Die Übermittlung falscher Informationen an Kunden könnte sich negativ auf den Ruf des Unternehmens und seine Kundenbeziehungen auswirken.

Fälschung in KI-Modellen

Fälschung, auch als Halluzination bekannt, ist eine weitere Herausforderung, der sich KI-Modelle gegenübersehen, einschließlich des Textgenerierungsmodells. Eine Fälschung liegt vor, wenn das KI-Modell Informationen generiert, die nicht auf bereitgestellten Eingaben oder bereits vorhandenen Daten basieren, sondern im Wesentlichen Informationen erfindet oder halluziniert.

Wenn das KI-Modell beispielsweise aufgefordert wird, eine Zusammenfassung eines historischen Ereignisses auf der Grundlage eines bestimmten Textes zu generieren, kann es Details oder Ereignisse enthalten, die im Quelltext nicht erwähnt werden. Beispielsweise erstellt ein Flow eine Zusammenfassung einer Besprechung basierend auf dem Transkript der Aufzeichnung. Die Eingabedaten umfassen Details zu den Teilnehmern, den besprochenen Artikeln und den getroffenen Entscheidungen. Das Modell generiert jedoch möglicherweise eine Zusammenfassung, die einen Aktionspunkt oder eine Entscheidung enthält, die in der Besprechung nie besprochen wurde. Bei dieser Situation handelt es sich um eine Fälschung, bei der das Modell eine Information halluziniert, die in den Eingabedaten nicht vorhanden ist.

Um das Risiko einer Fälschung zu mindern, ist die Implementierung verantwortungsvoller KI-Praktiken von entscheidender Bedeutung. Dazu gehören strenge Tests der Eingabeaufforderung und des Flows, die Bereitstellung möglichst vieler fundierter Informationen für das Modell und schließlich die Implementierung eines robusten Systems für die menschliche Aufsicht.

Risiken durch verantwortungsvolle KI-Praktiken bewältigen

Wir plädieren für verantwortungsvolle KI-Praktiken als Mittel zur Reduzierung dieser Risiken. Obwohl Strategien zur Moderation der vom Modell erzeugten Inhalte vorhanden sind, bleibt die Steuerung der Neigung des Modells, erfundene Antworten zu generieren oder Eingabeaufforderungs-Einschleuseangriffen zu erliegen, eine komplexe Herausforderung. Wir sind uns dieser Risiken bewusst und bekräftigen unser Engagement für menschliche Aufsicht und Kontrolle.

Angesichts der Notwendigkeit einer nahtlosen Automatisierung verbessern wir proaktiv unsere Sicherheitssysteme und streben nach einem tieferen Verständnis dieser Herausforderungen. Unser Ziel ist es, das Textgenerierungsmodell mit geeigneten Sicherheitsmaßnahmen weiter zu verfeinern, im Einklang mit unseren Grundsätzen einer verantwortungsvollen KI durch Design, und den Entwickelnden die Kontrolle zurückzugeben, wo immer dies möglich ist.

Verantwortungsvolle KI – FAQ