Umsetzen von Frameworks für verantwortungsvolle KI
Wie bereits in der vorangegangenen Lerneinheit besprochen wurde, hat Microsoft seinen eigenen internen Prozess entwickelt und verfeinert, um KI verantwortungsvoll einzusetzen. In dieser Lerneinheit wird erläutert, wie dieses Governancesystem in einer realen Situation funktioniert. Auch wenn jede Organisation eigene, auf die jeweiligen Bedürfnisse zugeschnittene Governanceframeworks und Überprüfungsprozesse benötigt, sind wir der Ansicht, dass unser Framework für sensible Anwendungsfälle als hilfreicher Ausgangspunkt dienen kann. Einer der ersten Schritte von Microsoft hin zu einem Governanceprozess für verantwortungsvolle KI war die Verwendung eines Überprüfungstriggers für sensible Anwendungsfälle. Das Framework half unseren internen und kundennahen Teams zu erkennen, wann spezifische Anwendungsfälle mehr Hilfestellung erforderten.
Microsoft-Framework für sensible Anwendungsfälle
Gemäß unserer Dokumentation der Governance für eine verantwortungsvolle KI gilt ein KI-Entwicklungs- oder Bereitstellungszenario als „sensibler Anwendungsfall“, wenn es in eine oder mehrere der folgenden Kategorien fällt:
- Verweigerung von Folgediensten: Das Szenario umfasst den Einsatz von KI in einer Weise, die unmittelbar zur Verweigerung von Folgediensten oder Unterstützung für eine Person führen kann (z. B. Finanz-, Wohnungs-, Versicherungs-, Bildungs-, Beschäftigungs-, Gesundheitsdienste usw.).
- Schadenrisiko: Das Szenario umfasst den Einsatz von KI in einer Weise, von der ein erhebliches Risiko körperlicher, emotionaler oder psychologischer Schäden für eine Person ausgehen kann (z. B. Entscheidungen über Leben oder Tod beim Militär, in sicherheitskritischen Produktionsumgebungen, im Gesundheitswesen, in fast jedem Szenario, in dem Kinder oder andere schutzbedürftige Personen involviert sind, usw.).
- Verletzung von Menschenrechten: Das Szenario umfasst den Einsatz von KI in einer Weise, die zu einer erheblichen Einschränkung der persönlichen Freiheit, der Meinungsfreiheit, der Versammlungs- oder Vereinigungsfreiheit, der Privatsphäre usw. (z. B. bei Strafverfolgung oder Überwachung) führen kann.
Wir schulen unsere Mitarbeiter, damit sie dieses Framework verwenden, um zu ermitteln, ob ein KI-Anwendungsfall für eine weitere Prüfung gekennzeichnet werden sollte – unabhängig davon, ob es sich um einen Verkäufer handelt, der mit einem Kunden zusammenarbeitet, oder um jemanden, der an einer internen KI-Lösung arbeitet. Wir schulen des Weiteren unsere Responsible AI Champs für ihre Rolle als Mittelsmann zwischen Mitarbeitern und zentralen Governanceteams.
Microsoft-Prozess für die Prüfung sensibler Anwendungsfälle
Der Überprüfungsprozess für sensible Anwendungsfälle erfolgt in drei Phasen: Identifizierung, Bewertung und Entschärfung. Zur besseren Veranschaulichung dieses Prozesses wird die Erläuterung der einzelnen Schritte durch eine Fallstudie aus der Praxis ergänzt. In dieser Fallstudie kam ein Kunde auf uns zu, der ein System zur Gesichtserkennung benötigte.
Identifikation
Wenn Mitarbeiter*innen feststellen, dass ein Anwendungsfall in eine der drei Kategorien fällt (Verweigerung von Folgediensten, Schadenrisiko oder Verletzung von Menschenrechten), melden sie diesen. Die Meldung erfolgt über ein zentrales Übermittlungstool und wird dann an den lokalen Beauftragten für verantwortungsvolle KI (Responsible AI Champ) weitergeleitet, der dafür verantwortlich ist, das Bewusstsein und das Verständnis für die Richtlinien, Standards und Leitlinien für verantwortungsvolle KI des Unternehmens zu fördern.
In diesem Fall trat eine Strafverfolgungsbehörde mit der Bitte an uns heran, ein System zur Gesichtserkennung zu entwickeln, das die vorhandenen Methoden zur Identitätsüberprüfung ergänzen sollte. Zu den Szenarien gehörte der Einsatz der Gesichtserkennung zur Überprüfung der Identität von Autofahrer*innen bei Verkehrskontrollen, zur Beschleunigung des Aufnahmeverfahrens in Gefängnissen und zur Überprüfung der Identität von Häftlingen, während sich diese durch die Einrichtung bewegen. Diese drei Anwendungsfälle wurden von den Mitarbeiter*innen über das zentrale Erfassungstool zur Überprüfung auf verantwortungsvolle KI eingereicht.
Bewertung
Der Responsible AI Champ, der mit Office of Responsible AI (ORA) und dem in den Anwendungsfall involvierten Microsoft-Team zusammenarbeitet, untersucht den Fall, um die relevanten Fakten zusammenzutragen. Dabei folgt er einem geführten Prozess, um die Auswirkungen des vorgeschlagenen Systems auf den Einzelnen und die Gesellschaft zu bewerten, und überprüft Fälle aus der Vergangenheit, um festzustellen, ob bereits Leitlinien für ein ähnliches Szenario existieren. Wenn keine früheren Leitlinien vorhanden sind, oder wenn der Fall mehr Fachwissen und eine Auswertung erfordert, legt der Responsible AI Champ den Fall der Arbeitsgruppe für sensible Anwendungsfälle des Komitees für KI und Ethik in Forschung und Entwicklung (AI and Ethics in Engineering & Research, Aether, Aether Committee) vor.
In diesem Fall der Gesichtserkennung arbeitete der Responsible AI Champ eng mit dem ORA, den Kundenteams und den Kund*innen zusammen, um die Risiken zu bewerten. Die Beteiligten gelangten zu dem Schluss, dass alle drei Fälle zur weiteren Bearbeitung an die Aether-Arbeitsgruppe für sensible Anwendungsfälle weitergeleitet werden mussten, da sie eine oder mehrere der sensiblen Einsatzzwecke der KI berührten.
Abmilderung
Die Arbeitsgruppe für sensible Anwendungsfälle bespricht sich mit einer Reihe unterschiedlicher Experten, um Erkenntnisse und Empfehlungen für den Umgang mit den Risiken bereitzustellen, die mit dem jeweiligen Anwendungsfall einhergehen. Wenn eine Situation eine weitere Eskalation erforderlich macht, können die Fälle bis zum Aether Committee weitergeleitet werden, das das Senior Leadership Team direkt berät. Entscheidungen zu neuen einschneidenden Fällen werden in letzter Instanz vom Senior Leadership Team getroffen.
Hinweis
Bei der Überprüfung sensibler Anwendungsfälle empfiehlt es sich, eine vielgestaltige Gruppe von Personen mit unterschiedlichen Hintergründen und Fachkenntnissen zusammenzubringen. Außerdem ist es wichtig, einen integrativen Rahmen zu schaffen, in dem sich jeder wohlfühlt und seine Ideen und Perspektiven einbringen kann.
Nach der Prüfung des Falls arbeitet der Responsible AI Champ mit dem Office of Responsible AI zusammen, um das Projektteam zu Abmilderungsstrategien zu beraten, die mit unseren Praktiken und Prinzipien für eine verantwortungsvolle KI in Einklang stehen. Diese Abmilderungsstrategien könnten technische Ansätze, Mitarbeiterschulungen und Governanceansätze oder auch Änderungen des Projektumfangs umfassen. Gelegentlich wurde unseren Teams in der Vergangenheit empfohlen, nicht mit bestimmten Projekten fortzufahren, da wir sie nicht auf eine Weise bereitstellen konnten, die unseren Prinzipien entspricht.
Im genannten Fall traf die Aether-Arbeitsgruppe für sensible Anwendungsfälle separate Entscheidungen für jedes der Szenarien. Nach sorgfältiger Abwägung wurde entschieden, dass das Überwachungsszenario zur Identifizierung von „Personen von Interesse“ bei Verkehrskontrollen nicht unterstützt werden kann. Da der Entwicklungsstand der Technologie und des gesamten Ökosystems noch nicht ausgereift genug war, um die negativen Folgen einer nicht perfekt funktionierenden Technologie abzumildern, stufte die Aether-Arbeitsgruppe dieses Szenario als einen verfrühten Anwendungsfall ein.
Microsoft legte dem Kunden die Probleme dar, und dieser entschied sich, das Szenario nicht weiter zu verfolgen.
Hinweis
Durch Untersuchungen gestützt: Der Versuch, Personen in unkontrollierten Umgebungen zu identifizieren, kann gegen die Menschenrechte verstoßen und zu unzulässigen Verhaftungen aufgrund einer falschen Identifizierung führen. Studien haben gezeigt, dass bei weiblichen Personen und bei Angehörigen von Minderheiten die Wahrscheinlichkeit einer Fehlidentifizierung durch die KI größer ist, was auch dazu führen könnte, dass Angehörige dieser Bevölkerungsgruppen unverhältnismäßig häufig in Gewahrsam genommen werden.1
Für die innerbetrieblichen Anwendungsfälle entschied Microsoft, den Entwurf und die Entwicklung eines Proof of Concept (POC) unterstützen zu können. Dabei sollten Sicherheitsvorkehrungen getroffen werden, um eine angemessene manuelle Kontrolle über die Lösung zu gewährleisten, und es sollte eine bidirektionale Feedbackschleife zwischen Kunde und Microsoft eingerichtet werden. Microsoft legte Wert darauf, dass der Kunde ein Schulungsprogramm für alle Mitarbeiter*innen einrichtet, die mit den Lösungen arbeiten. Darüber hinaus wurde der Kunde verpflichtet, sich bei Bereitstellungen, die über die unterstützten Szenarien hinausgehen, erneut mit Microsoft abzustimmen.
Die Weiterentwicklung der verantwortungsvollen KI-Governance
Nachdem Sie nun die Herangehensweise von Microsoft in der Praxis kennengelernt haben, möchten wir einen wichtigen Punkt erneut betonen: Wir stehen erst am Anfang der Entwicklung von KI-Governance. Die Prozesse rund um die KI entwickeln sich rasant weiter. Für die Zukunft planen wir eine Verfeinerung unserer Governancepolitik, während wir weiter in die KI investieren, und wir empfehlen anderen Unternehmen, das Gleiche zu tun. Jede Organisation muss ihren Überprüfungsprozess basierend auf den eigenen KI-Anforderungen und dem jeweiligen Reifegrad anpassen, aber wir hoffen, dass unser Prozess als hilfreicher Ausgangspunkt dienen kann.
Überprüfen Sie als Nächstes mit einer Wissensbeurteilung, was Sie gelernt haben.