Freigeben über


Einführung in die Interaktion

Windows-Eingabetypen

Benutzerinteraktionen in der Windows-App sind eine Kombination aus Eingabe- und Ausgabequellen (z. B. Maus, Tastatur, Stift, Toucheingabe, Touchpad, Spracherkennung, Cortana, Controller, Gesten, Blick usw.), zusammen mit verschiedenen Modi oder Modifizierern, die erweiterte Erfahrungen ermöglichen (einschließlich Mausrad und Schaltflächen, Radierer- und Drucktasten, Bildschirmtastatur und Hintergrund-App-Dienste).

UWP verwendet ein "intelligentes" Kontextinteraktionssystem, das in den meisten Fällen die Notwendigkeit beseitigt, die von Ihrer App empfangenen eindeutigen Eingabetypen einzeln zu behandeln. Dazu gehören die Behandlung von Toucheingaben, Touchpads, Maus- und Stifteingaben als generischer Zeigertyp zur Unterstützung statischer Gesten wie Tippen oder Gedrückthalten, Manipulationsgesten wie Folie zum Verschieben oder Rendern digitaler Freihandeingaben.

Machen Sie sich mit den verschiedenen Arten von Eingabegeräten sowie ihren Verhaltensweisen, Möglichkeiten und Einschränkungen in Verbindung mit bestimmten Formfaktoren vertraut. Auf diese Weise können Sie entscheiden, ob die Plattformsteuerelemente und Angebote für Ihre App ausreichend sind oder ob Sie angepasste Interaktionsfunktionen bereitstellen müssen.

Anvisieren

Für Windows 10 April 2018 Update wurde unterstützung für Die Gaze-Eingabe mithilfe von Eingabegeräten für Eye- und Head Tracking eingeführt.

Hinweis

Die Unterstützung für Eye Tracking-Hardware wurde in Windows 10 Fall Creators Update zusammen mit eye control eingeführt, einem integrierten Feature, mit dem Sie den Mauszeiger auf dem Bildschirm steuern, mit der Bildschirmtastatur eingeben und mit Personen kommunizieren können, die Text-zu-Sprache verwenden.

Unterstützung für Geräte

  • Tablet
  • PCs und Laptops

Typische Verwendung

Verfolge den Blick, die Aufmerksamkeit und die Präsenz eines Benutzers anhand der Position und Bewegung seiner Augen. Diese leistungsstarke neue Möglichkeit zur Verwendung und Interaktion mit Windows-Apps ist besonders nützlich als Hilfstechnologie für Benutzer mit Neuro-Muskelerkrankungen (z. B. ALS) und anderen Behinderungen mit eingeschränkten Muskel- oder Nervenfunktionen. Die Anzeigeeingabe bietet außerdem überzeugende Möglichkeiten für Spiele (einschließlich Zielakquisition und Tracking) und herkömmliche Produktivitätsanwendungen, Kioske und andere interaktive Szenarien, in denen herkömmliche Eingabegeräte (Tastatur, Maus, Toucheingabe) nicht verfügbar sind oder wo es hilfreich/hilfreich sein kann, die Hände des Benutzers für andere Aufgaben freizugeben (z. B. Einkaufstaschen halten).

Weitere Informationen

Blickinteraktionen und Eye Tracking

Surface Dial

Für Windows 10 Anniversary Update haben wir die Windows Wheel-Kategorie des Eingabegeräts eingeführt. Das Surface Dial ist der erste in dieser Geräteklasse.

Unterstützung für Geräte

  • Tablet
  • PCs und Laptops

Typische Verwendung

Bei einem Formfaktor, der auf einer Drehaktion (oder Geste) basiert, ist das Surface Dial als sekundäres, modales Eingabegerät vorgesehen, das eingaben von einem primären Gerät ergänzt oder ändert. In den meisten Fällen wird das Gerät von der nicht dominanten Hand eines Benutzers bearbeitet, während er eine Aufgabe mit seiner dominanten Hand ausführt (z. B. Freihand mit einem Stift).

Weitere Informationen

Entwurfsrichtlinien für Surface Dial

Cortana

In Windows 10 können Sie mit der Cortana-Erweiterbarkeit Sprachbefehle von einem Benutzer behandeln und Ihre Anwendung starten, um eine einzelne Aktion auszuführen.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT
  • Xbox
  • HoloLens

Cortana

Typische Verwendung

Ein Sprachbefehl ist eine einzelne Äußerung, die in einer VCD-Datei (Voice Command Definition) definiert ist, die an eine installierte App über Cortana gerichtet ist. Die App kann je nach Ebene und Komplexität der Interaktion im Vordergrund oder Hintergrund gestartet werden. Sprachbefehle, die zusätzlichen Kontext oder Benutzereingaben erfordern, werden beispielsweise am besten im Vordergrund behandelt, während grundlegende Befehle im Hintergrund behandelt werden können.

Durch die Integration der grundlegenden Funktionen Ihrer App und die Bereitstellung eines zentralen Einstiegspunkts für den Benutzer, um die meisten Aufgaben auszuführen, ohne Ihre App direkt zu öffnen, kann Cortana zu einer Verbindung zwischen Ihrer App und dem Benutzer werden. In vielen Fällen spart der Benutzer dadurch viel Zeit und Mühe. Weitere Informationen finden Sie in den Cortana-Entwurfsrichtlinien.

Weitere Informationen

Cortana-Entwurfsrichtlinien  

Speech

Die Spracherkennung ist eine effektive und natürliche Möglichkeit für Personen, mit Anwendungen zu interagieren. Es ist eine einfache und genaue Möglichkeit, mit Anwendungen zu kommunizieren, und ermöglicht es Menschen, produktiv zu sein und in einer Vielzahl von Situationen auf dem Laufenden zu bleiben.

Die Spracherkennung kann je nach Gerät des Benutzers ergänzen oder in vielen Fällen der primäre Eingabetyp sein. Geräte wie HoloLens und Xbox unterstützen beispielsweise keine herkömmlichen Eingabetypen (abgesehen von einer Softwaretastatur in bestimmten Szenarien). Stattdessen basieren sie für die meisten Benutzerinteraktionen auf Spracheingabe und -ausgabe (häufig kombiniert mit anderen nicht herkömmlichen Eingabetypen wie Blick und Geste).

Text-zu-Sprache (auch als TTS oder Sprachsynthese bezeichnet) wird verwendet, um den Benutzer zu informieren oder zu leiten.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT
  • Xbox
  • HoloLens

Spracherkennung

Typische Verwendung

Es gibt drei Modi der Sprachinteraktion:

Natürliche Sprache

Natürliche Sprache ist, wie wir regelmäßig mit Menschen interagieren. Unsere Rede variiert von Person zu Person und Situation und wird allgemein verstanden. Wenn dies nicht der Zeitpunkt ist, verwenden wir häufig verschiedene Wörter und Wortreihenfolge, um die gleiche Idee zu vermitteln.

Natürliche Sprachinteraktionen mit einer App sind ähnlich: Wir sprechen über unser Gerät mit der App, als ob es sich um eine Person handelt und erwarten, dass sie entsprechend verstehen und reagieren.

Natürliche Sprache ist der fortschrittlichste Modus der Sprachinteraktion und kann über Cortana implementiert und verfügbar gemacht werden.

Befehl und Steuerelement

Befehle und Steuerungen sind die Verwendung verbaler Befehle zum Aktivieren von Steuerelementen und Funktionen, z. B. Klicken auf eine Schaltfläche oder Auswählen eines Menüelements.

Da Befehls- und Steuerungsfunktionen für eine erfolgreiche Benutzererfahrung wichtig sind, wird in der Regel kein einzelner Eingabetyp empfohlen. Die Spracherkennung ist in der Regel eine von mehreren Eingabeoptionen für einen Benutzer basierend auf seinen Einstellungen oder Hardwarefunktionen.

Diktieren

Die einfachste Spracheingabemethode. Jede Äußerung wird in Text konvertiert.

Diktieren wird in der Regel verwendet, wenn eine App keine Bedeutung oder Absicht verstehen muss.

Weitere Informationen

Richtlinien für den Sprachentwurf  

Stift

Ein Stift (oder Eingabestift) kann als pixelgenaues Zeigegerät wie eine Maus dienen und ist das optimale Gerät für die digitale Freihandeingabe.

Hinweis: Es gibt zwei Arten von Stiftgeräten: aktiv und passiv.

  • Passive Stifte enthalten keine Elektronik und emulieren die Toucheingabe von einem Finger effektiv. Sie erfordern eine einfache Geräteanzeige, die Eingaben basierend auf dem Kontaktdruck erkennt. Da Benutzer ihre Hand oft beim Schreiben auf der Eingabeoberfläche ruhen, können Eingabedaten aufgrund einer nicht erfolgreichen Palmenausweisung belastet werden.
  • Aktive Stifte enthalten Elektronik und können mit komplexen Geräteanzeigen arbeiten, um viel umfangreichere Eingabedaten (einschließlich Hover- oder Näherungsdaten) für das System und Ihre App bereitzustellen. Palm-Ablehnung ist viel robuster.

Wenn wir hier auf Stiftgeräte verweisen, beziehen wir uns auf aktive Stifte, die umfangreiche Eingabedaten bereitstellen und hauptsächlich für präzise Freihand- und Zeigeinteraktionen verwendet werden.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT

Pen

Typische Verwendung

Die Windows-Freihandplattform bietet zusammen mit einem Stift eine natürliche Möglichkeit zum Erstellen handschriftlicher Notizen, Zeichnungen und Anmerkungen. Die Plattform unterstützt das Erfassen von Freihanddaten aus der Digitalisierereingabe, das Generieren von Freihanddaten, das Rendern dieser Daten als Freihandstriche auf dem Ausgabegerät, die Verwaltung der Freihanddaten und das Durchführen der Schrifterkennung. Neben der Erfassung der räumlichen Bewegungen des Stifts, während der Benutzer schreibt oder zeichnet, kann Ihre App auch Informationen wie Druck, Form, Farbe und Deckkraft sammeln, um Benutzeroberflächen zu bieten, die dem Zeichnen auf Papier mit einem Stift, Bleistift oder Pinsel sehr ähnlich sind.

Wenn die Stift- und Toucheingabe unterschiedlich sind, ist die Möglichkeit, die direkte Manipulation von UI-Elementen auf dem Bildschirm durch physische Gesten auf dem Bildschirm zu emulieren, die für diese Objekte ausgeführt werden (z. B. Wischen, Ziehen, Drehen usw.).

Sie sollten stiftspezifische UI-Befehle oder Angebote bereitstellen, um diese Interaktionen zu unterstützen. Verwenden Sie z. B. die Schaltflächen "Vorherige" und "Weiter" (oder "+" und "-"), um Benutzern das Kippen von Seiten von Inhalten oder das Drehen, Ändern der Größe und Zoomen von Objekten zu ermöglichen.

Weitere Informationen

Stiftentwurfsrichtlinien  

Toucheingabe

Mit Toucheingabe können physische Gesten von einem oder mehreren Fingern verwendet werden, um entweder die direkte Manipulation von UI-Elementen zu emulieren (z. B. Verschieben, Drehen, Ändern der Größe oder Verschieben), als alternative Eingabemethode (ähnlich der Maus oder des Stifts) oder als ergänzende Eingabemethode (um Aspekte anderer Eingaben zu ändern, z. B. ein mit einem Stift gezeichneter Freihandstrich). Taktile Erfahrungen wie dies können für Benutzer natürlichere, reale Empfindungen bieten, während sie mit Elementen auf einem Bildschirm interagieren.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT

Berühren

Typische Verwendung

Die Unterstützung für die Toucheingabe kann je nach Gerät erheblich variieren.

Einige Geräte unterstützen überhaupt keine Toucheingabe, einige Geräte unterstützen einen einzelnen Berührungskontakt, während andere Multitouch (zwei oder mehr Kontakte) unterstützen.

Die meisten Geräte, die Multitoucheingaben unterstützen, erkennen in der Regel zehn eindeutige, gleichzeitige Kontakte.

Surface Hub-Geräte erkennen 100 eindeutige, gleichzeitige Touchkontakte.

Im Allgemeinen gilt Folgendes:

  • Einzelner Benutzer, es sei denn, es wird mit einem Microsoft Team-Gerät wie Surface Hub verwendet, bei dem die Zusammenarbeit hervorgehoben ist.
  • Nicht auf die Geräteausrichtung beschränkt.
  • Wird für alle Interaktionen verwendet, einschließlich Texteingabe (Bildschirmtastatur) und Freihandeingabe (app-konfiguriert).

Weitere Informationen

Richtlinien für das Touchdesign  

Touchpad

Ein Touchpad kombiniert beide indirekte Multitoucheingaben mit der Präzisionseingabe eines Zeigegeräts, wie zum Beispiel einer Maus. Durch diese Kombination eignet sich das Touchpad sowohl für eine touchoptimierte Benutzeroberfläche als auch für die kleineren Ziele von Produktivitäts-Apps.

Unterstützung für Geräte

  • PCs und Laptops
  • IoT

Touchpad

Typische Verwendung

Touchpads unterstützen in der Regel eine Reihe von Touchgesten, die eine ähnliche Toucheingabe für die direkte Manipulation von Objekten und UI bieten.

Aufgrund dieser Konvergenz der Interaktionserfahrungen, die von Touchpads unterstützt werden, empfehlen wir, auch Benutzeroberflächenbefehle oder Angebote im Mausstil bereitzustellen, anstatt sich ausschließlich auf die Unterstützung für die Toucheingabe zu verlassen. Stellen Sie touchpadspezifische UI-Befehle oder Angebote bereit, um diese Interaktionen zu unterstützen.

Sie sollten mausspezifische UI-Befehle oder Angebote bereitstellen, um diese Interaktionen zu unterstützen. Verwenden Sie z. B. die Schaltflächen "Vorherige" und "Weiter" (oder "+" und "-"), um Benutzern das Kippen von Seiten von Inhalten oder das Drehen, Ändern der Größe und Zoomen von Objekten zu ermöglichen.

Weitere Informationen

Designrichtlinien für Touchpads  

Tastatur

Eine Tastatur ist das primäre Eingabegerät für Text und ist häufig für Personen mit bestimmten Behinderungen oder Benutzern unerlässlich, die es als schnellere und effizientere Möglichkeit für die Interaktion mit einer App betrachten.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT
  • Xbox
  • HoloLens

Tastatur

Typische Verwendung

Benutzer können mit universellen Windows-Apps über eine Hardwaretastatur und zwei Softwaretastaturen interagieren: die Bildschirmtastatur (On-Screen Keyboard, OSK) und die Bildschirmtastatur.

Das OSK ist eine visuelle Softwaretastatur, die Sie anstelle der physischen Tastatur verwenden können, um Daten mithilfe von Toucheingabe, Maus, Zeichen-/Eingabestift oder einem anderen Zeigegerät einzugeben (ein Touchscreen ist nicht erforderlich). Die OSK wird für Systeme bereitgestellt, die nicht über eine physische Tastatur verfügen, oder für Benutzer, deren Mobilitätsbeeinträchtigungen sie daran hindern, herkömmliche physische Eingabegeräte zu verwenden. Die OSK emuliert den Großteil der, wenn nicht sogar die gesamte, Funktionalität einer Hardwaretastatur.

Die Bildschirmtastatur ist eine visuelle Softwaretastatur, die für die Texteingabe mit Toucheingabe verwendet wird. Die Bildschirmtastatur ist kein Ersatz für das OSK, da sie nur für die Texteingabe verwendet wird (sie emuliert die Hardwaretastatur) und nur angezeigt wird, wenn ein Textfeld oder ein anderes bearbeitbares Textsteuerelement den Fokus erhält. Die Bildschirmtastatur unterstützt keine App- oder Systembefehle.

Beachten Sie, dass das OSK vorrang vor der Bildschirmtastatur hat, was nicht angezeigt wird, wenn das OSK vorhanden ist.

Im Allgemeinen ist eine Tastatur:

  • Einzelner Benutzer.
  • Nicht auf die Geräteausrichtung beschränkt.
  • Wird für Texteingabe, Navigation, Gameplay und Barrierefreiheit verwendet.
  • Immer verfügbar, entweder proaktiv oder reaktiv.

Weitere Informationen

Richtlinien für tastaturdesigns  

Maus

Eine Maus eignet sich am besten für Produktivitäts-Apps und ui mit hoher Dichte, bei denen Benutzerinteraktionen Pixelgenauigkeit für die Ausrichtung und Steuerung erfordern.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT

Maus

Typische Verwendung

Die Mauseingabe kann mit der Hinzufügung verschiedener Tastaturtasten (STRG, UMSCHALT, ALT usw.) geändert werden. Diese Tasten können mit der linken Maustaste, der rechten Maustaste, der Radtaste und den X-Tasten für einen erweiterten, mausoptimierten Befehlssatz kombiniert werden. (Einige Microsoft-Mausgeräte verfügen über zwei zusätzliche Schaltflächen, die als X-Schaltflächen bezeichnet werden, die normalerweise verwendet werden, um in Webbrowsern rückwärts und vorwärts zu navigieren).

Ähnlich wie der Stift, bei dem maus- und toucheingaben unterschiedlich sind, ist die Möglichkeit, die direkte Manipulation von UI-Elementen auf dem Bildschirm durch physische Gesten zu emulieren, die für diese Objekte ausgeführt werden (z. B. Wischen, Ziehen, Drehen usw.).

Sie sollten mausspezifische UI-Befehle oder Angebote bereitstellen, um diese Interaktionen zu unterstützen. Verwenden Sie z. B. die Schaltflächen "Vorherige" und "Weiter" (oder "+" und "-"), um Benutzern das Kippen von Seiten von Inhalten oder das Drehen, Ändern der Größe und Zoomen von Objekten zu ermöglichen.

Weitere Informationen

Richtlinien für den Mausentwurf  

Geste

Eine Geste ist jede Form der Benutzerbewegung, die als Eingabe für die Steuerung oder Interaktion mit einer Anwendung erkannt wird. Gesten nehmen viele Formen, von der verwendung einer Hand, um etwas auf dem Bildschirm zu zielen, bis hin zu bestimmten, gelernten Bewegungsmustern, bis hin zu langen Strecken kontinuierlicher Bewegung mit dem gesamten Körper. Seien Sie beim Entwerfen von benutzerdefinierten Gesten vorsichtig, da ihre Bedeutung je nach Gebietsschema und Kultur variieren kann.

Unterstützung für Geräte

  • PCs und Laptops
  • IoT
  • Xbox
  • HoloLens

Geste

Typische Verwendung

Statische Gestenereignisse werden ausgelöst, nachdem eine Interaktion abgeschlossen ist.

  • Statische Gestenereignisse umfassen "Tapped", "DoubleTapped", "RightTapped" und "Holding".

Manipulationsgestenereignisse deuten auf eine fortlaufende Interaktion hin. Sie werden ausgelöst, wenn der Benutzer ein Element berührt, und bleiben so lange aktiv, bis der Benutzer den Finger hebt oder die Manipulation abgebrochen wird.

  • Manipulationsereignisse umfassen Multitouch-Interaktionen wie Zoomen, Schwenken oder Drehen sowie Interaktionen, die Trägheits- und Geschwindigkeitsdaten wie Ziehen verwenden. (Die von den Manipulationsereignissen bereitgestellten Informationen identifizieren nicht die Interaktion, sondern stellen Daten wie Position, Übersetzungsdelta und Geschwindigkeit bereit.)

  • Zeigerereignisse wie PointerPressed und PointerMoved bieten Details auf niedriger Ebene für jeden Touchkontakt, einschließlich Zeigerbewegung und die Fähigkeit, zwischen Presse- und Veröffentlichungsereignissen zu unterscheiden.

Aufgrund der Konvergenz der von Windows unterstützten Interaktionsfunktionen wird empfohlen, auch Benutzeroberflächenbefehle oder Angebote im Mausstil bereitzustellen, anstatt ausschließlich die Unterstützung für die Toucheingabe zu verwenden. Verwenden Sie z. B. die Schaltflächen "Vorherige" und "Weiter" (oder "+" und "-"), um Benutzern das Kippen von Seiten von Inhalten oder das Drehen, Ändern der Größe und Zoomen von Objekten zu ermöglichen.

Gamepad/Controller

Der Gamepad/Controller ist ein hochspezialisiertes Gerät, das normalerweise für das Spielen von Spielen vorgesehen ist. Es wird jedoch auch verwendet, um grundlegende Tastatureingaben zu emulieren und bietet eine Benutzeroberflächennavigation, die der Tastatur sehr ähnlich ist.

Unterstützung für Geräte

  • PCs und Laptops
  • IoT
  • Xbox

Controller

Typische Verwendung

Spielen und Interagieren mit einer speziellen Konsole.

Mehrfacheingaben

Wenn Sie so viele Benutzer und Geräte wie möglich unterstützen und Ihre Apps so viele Eingabetypen (Geste, Sprache, Toucheingabe, Touchpad, Maus und Tastatur) wie möglich nutzen, maximiert die Flexibilität, Benutzerfreundlichkeit und Barrierefreiheit.

Unterstützung für Geräte

  • Smartphones und Phablets
  • Tablet
  • PCs und Laptops
  • Surface Hub
  • IoT
  • Xbox
  • HoloLens

Mehrere Eingaben

Typische Verwendung

Ebenso wie Menschen untereinander mit einer Mischung aus Sprache und Gesten kommunizieren, kann sich auch bei der Interaktion mit einer App die Verwendung mehrerer Eingabearten und -modi als hilfreich erweisen. Diese kombinierten Interaktionen müssen jedoch so intuitiv und natürlich wie möglich sein, da sie auch eine sehr verwirrende Erfahrung schaffen können.