Sätta ansvarsfulla AI-ramverk i praktiken

Slutförd

Som vi diskuterade i föregående lektion har Microsoft utvecklat och förfinat sin egen interna process för att styra AI på ett ansvarsfullt sätt. Den här lektionen förklarar hur det här styrningssystemet fungerar i en verklig situation. Varje organisation behöver sina egna unika styrningsramverk och granskningsprocesser, men vi tror att vårt ramverk för känslig användning kan fungera som en användbar utgångspunkt. Ett av Microsofts tidiga steg i vår ansvarsfulla AI-styrningsprocess var att använda en granskningsutlösare för känslig användning. Ramverket hjälpte våra interna och kundinriktade team att identifiera när specifika användningsfall behöver mer vägledning.

Microsofts ramverk för känsliga användningsfall

Enligt vår dokumentation om ansvarsfull AI-styrning anser vi att ett SCENARIO för AI-utveckling eller distribution är en "känslig användning" om det ingår i en eller flera av följande kategorier:

  • Nekande av följdtjänster: Scenariot omfattar användning av AI på ett sätt som direkt kan leda till nekande av följdtjänster eller stöd till en individ (till exempel finansiella tjänster, bostäder, försäkringar, utbildning, sysselsättning eller hälsovårdstjänster).
  • Risk för skada: Scenariot innebär användning av AI på ett sätt som kan skapa en betydande risk för fysisk, känslomässig eller psykisk skada för en individ (till exempel beslut om liv eller död i militära, säkerhetskritiska tillverkningsmiljöer, sjukvårdskontexter, nästan alla scenarier som involverar barn eller andra utsatta människor och så vidare).
  • Brott mot de mänskliga rättigheterna: Scenariot omfattar användning av AI på ett sätt som kan leda till en betydande begränsning av personlig frihet, åsikt eller uttryck, sammansättning eller association, integritet och så vidare (till exempel inom brottsbekämpning eller polisarbete).

Vi tränar våra anställda att använda det här ramverket för att avgöra om ett AI-användningsfall ska flaggas för ytterligare granskning – oavsett om de är säljare som arbetar med en kund eller någon som arbetar med en intern AI-lösning. Vi tränar även våra ansvarsfulla AI Champs för deras roll som samband mellan anställda och centrala styrningsteam.

Granskningsprocess för microsofts känsliga användningsfall

Granskningsprocessen för känsliga användningsfall har tre steg: identifiering, utvärdering och minskning. För att bättre illustrera den här processen ansluter sig en verklig fallstudie till förklaringen av varje steg. I den här fallstudien kom en kund till oss för ett ansiktsigenkänningssystem.

Identifiering

Om en anställd identifierar att ett användningsfall ingår i någon av de tre kategorierna (nekande av följdtjänster, risk för skada eller brott mot de mänskliga rättigheterna), rapporterar de det. Rapportering sker via ett centralt inlämningsverktyg och dirigeras sedan till deras lokala Responsible AI Champ, en person som ansvarar för att öka medvetenheten och förståelsen för företagets ansvarsfulla AI-principer, standarder och vägledning.

I det här fallet kontaktade en brottsbekämpande myndighet oss för att utveckla ett system för ansiktsigenkänning för att utöka befintliga metoder för identitetsverifiering. Scenarierna inkluderade användning av ansiktsigenkänning för att kontrollera förarnas identiteter under trafikstopp, för att påskynda incheckningsprocessen i fängelser och för att verifiera fångarnas identiteter när de rörde sig genom anläggningen. En anställd skickade dessa tre användningsfall via det centrala intagsverktyget för ansvarsfull AI-granskning.

Utvärdering

Ansvarig AI-mästare, som arbetar med Office of Responsible AI och Microsoft-teamet som är involverade i användningsfallet, undersöker ärendet för att samla in relevanta fakta, följer en guidad process för att bedöma effekten av det föreslagna systemet på individer och samhället och granskar tidigare fall för att avgöra om vägledning redan finns för ett liknande scenario. Om det inte finns någon tidigare vägledning, eller om ärendet kräver mer expertis och utvärdering, presenterar ansvarig AI Champ ärendet för arbetsgruppen för känslig användning i Aether-kommittén.

I det här ansiktsigenkänningsfallet har Ansvarig AI-mästare haft ett nära samarbete med Office of Responsible AI, kontoteamen och kunderna för att bedöma riskerna. Det beslutades att alla tre fallen behövde eskaleras till arbetsgruppen för aether-känslig användning för ytterligare indata, eftersom de berörde en eller flera av de känsliga användningsområdena för AI.

Riskreducering

Arbetsgruppen för känslig användning samarbetar med en mångfaldig expertgrupp för att ge insikter och rekommendationer för hur man ska hantera de risker som är kopplade till det specifika användningsfallet. Om situationen kräver ytterligare eskalering kan ärenden stiga hela vägen upp till själva Aether-kommittén, som direkt ger råd till ledningsgruppen. I slutändan fattar ledningsgruppen beslut om nya, effektrika fall.

Kommentar

När du granskar känsliga användningsfall rekommenderar vi att du sammanför en mångfald av personer med olika bakgrund och expertis. Det är också viktigt att skapa ett inkluderande utrymme där alla känner sig bekväma med att dela med sig av sina idéer och perspektiv.

När ärendet har granskats arbetar Responsible AI Champ med Office of Responsible AI för att ge råd till projektteamet om riskreduceringsstrategier som överensstämmer med våra ansvarsfulla AI-metoder och principer. Dessa åtgärdsstrategier kan omfatta tekniska metoder, utbildning och styrning av anställda eller ändringar i projektets omfattning. Ibland har våra team uppmanats att inte gå vidare med vissa projekt eftersom vi inte kunde leverera dem på ett sätt som upprätthåller våra principer.

I användningsfallet fattade arbetsgruppen Aether Sensitive Uses separata beslut för var och en av scenarierna. Efter noggrant övervägande fastställde de att vi inte skulle stödja patrulleringsscenariot för att identifiera "personer av intresse", under trafikstopp. Eftersom teknikens tillstånd och det bredare ekosystemet inte var tillräckligt mogna för att mildra de skadliga konsekvenserna för när tekniken presterar ofullkomligt, ansåg Aether-arbetsgruppen att detta scenario var ett förhastat användningsfall.

Vi förklarade problemen för kunden och de bestämde sig för att inte fortsätta med det scenariot.

Kommentar

Uppbackad av forskning: försök att identifiera individer i okontrollerade miljöer kan kränka de mänskliga rättigheterna, vilket resulterar i felaktiga gripanden på grund av felidentifiering. Studier har visat att AI är mer sannolikt att missta kvinnors och minoriteters identiteter, vilket också kan leda till att dessa befolkningar hålls oproportionerligt fängslade.1

För användningsfallen i anläggningen beslutade vi att vi kunde stödja utformning och utveckling av ett konceptbevis (POC), med skyddsåtgärder på plats för att säkerställa lämplig mänsklig kontroll över lösningen, och en dubbelriktad feedbackloop mellan kunden och Microsoft kunde upprättas. Det var också viktigt att kunden implementerade ett utbildningsprogram för personal som interagerar med lösningarna och att kunden återaktiverar med Microsoft vid distributioner utöver dessa scenarier som stöds.

Utvecklingen av ansvarsfull AI-styrning

Nu när du har sett vår process i praktiken finns det en viktig punkt som vi vill upprepa – vi är i början av utvecklingen av AI-styrning. Processerna kring AI utvecklas snabbt. Framöver planerar vi att förfina våra styrningsprinciper när vi investerar ytterligare i AI, och vi rekommenderar att andra företag gör detsamma. Varje organisation måste anpassa sin granskningsprocess baserat på sina egna AI-behov och mognad, men förhoppningsvis kan vår process fungera som en användbar utgångspunkt.

Nu ska vi avsluta allt du har lärt dig med en kunskapstest.