Gestensteuerung — Neue Kommunikationswege zwischen Mensch und Maschine

Veröffentlicht am 12. July 2021

Fabienne Pascale Schreier

Gesten sagen mehr als tausend Worte — Wir winken uns zu, bestätigen eine tolle Leistung mit einem Daumen nach oben oder schütteln verzweifelt mit dem Kopf, wenn wieder mal etwas schief gegangen ist. Gesten sind Teil unseres Seins, unserer Kultur und unserer Sprache. Es ist also nicht verwunderlich, dass es immer mehr Überlegungen gibt, inwiefern unsere Gestik nicht auch bei der Kommunikation zwischen Mensch und Maschine zum Einsatz kommen sollte. Doch wie gut können Computer überhaupt einen Fingerzeig verstehen?

Was sind eigentlich Gesten?

Die Gestik ist, wie z.B. auch Geruch und Geschmack, Teil der nonverbalen Kommunikation, in der die Lautsprache durch zumeist dynamische Bewegungen der Hände, Arme, Schultern etc. ersetzt oder ergänzt wird — sogenannten Gesten. Der Begriff selbst ist aus dem Lateinischen entlehnt und auf das Wort gestuszurückzuführen, welches die ‚Bewegung der Hände bzw. Gebärde der Schauspieler und Redner‘ umfasst.

Als wichtiger Aspekt der zwischenmenschlichen Konversation werden Gesten bereits in frühen Jahren von Kindern übernommen. Die erlernten Gesten sind dabei aber nicht immer vollkommen universal nutzbar und oft von Kultur zu Kultur verschieden. So verneint man in Japan bspw. ein Angebot, indem man mit der Hand vor dem Gesicht wedelt — eine Geste, die man in Deutschland eher als ein ‚du spinnst doch‘ verstehen würde. Gleichzeitig bedeutet das hierzulande gängige Kopfschütteln in Ländern wie Indien oder Pakistan das genaue Gegenteil — nicht ‚Nein‘, sondern ‚Ja‘.

Es gibt also, wie in den Sprachen selbst, auch bei der nonverbalen Kommunikation kulturelle oder regionale Unterschiede, die zu Missverständnissen führen können. Fakt ist aber, dass uns Gesten seit jeher begleiten und dass durch den digitalen Fortschritt sowie die globale Vernetzung immer mehr einfache Gesten grenzübergreifend genutzt und verstanden werden.

Allerdings stellen Gesten im Vergleich zur Sprachsteuerung bei der Kommunikation mit Maschinen bisher immer noch eher ein Randphänomen dar. Und das, obwohl sich gerade in Zeiten des Internet of Things nahezu unzählige Einsatzmöglichkeiten für intelligente Gestenerkennung ergeben, welche die Customer Experience der Nutzer verbessern können, indem sie ihnen natürlichere und bequemere Möglichkeiten eröffnet, mit Geräten oder Anwendungen zu interagieren.

Neue Mensch-Computer-Interaktionen

Heutzutage sind wir es nicht nur gewohnt, von Bildschirmen jeglicher Größe umgeben zu sein, sondern haben auch eine gewisse Fingerfertigkeit entwickelt, um diese Displays durch bestimmte Berührungen zu benutzen. Es wird gewischt, gedreht oder mit den Fingern auseinandergezogen — alles durch jahrelange Smartphone-Nutzung erlernt und so intuitiv gestaltet, dass selbst die Jüngsten wortwörtlich im Handumdrehen raushaben, wie das Ganze funktioniert.

Doch auch wenn Touch Screens überall aufzufinden sind und man immer präziser mit ihnen arbeiten kann, gibt es einige Nachteile, die nicht so schnell zu lösen sind. So ist die barrierefreie Bedienung für z-B. sehbehinderte Menschen immer noch nicht ausgereift und wer schon mal mit nassen Händen oder Handschuhen versucht hat, durch sein Smartphone zu navigieren, weiß, dass dies nahezu unmöglich ist.

Deshalb beschäftigt sich die Forschung vermehrt mit innovativeren Lösungswegen, um die Kommunikation zwischen Mensch und Maschine schneller und einfacher zu gestalten. Durch den anhaltenden Fortschritt in Sachen Kameratechnik und Berührungssensoren, scheint es somit langsam nur noch eine Frage der Zeit, bis der Touch Screen zumindest teilweise als Haupteingabegerät ausgedient hat und mittels Gestensteuerung ersetzt wird.

Erste Schritte in der Automobilbranche

Vor allem die Automobilindustrie hat ein gesteigertes Interesse an der Gestensteuerung, da die in nahezu jeder Preiskategorie anzutreffenden Multi-Touch-Oberflächen für den Fahrer eine größere Gefahr darstellen, als die Schalter und Hebel früherer Modelle. Die immer größer werdenden Displays lenken nämlich viele nicht nur bei der Navi- oder Radio-Nutzung von der eigentlichen (Fahr-)Aufgabe ab, sie werden auch immer öfter geradezu missbraucht, indem Videos oder andere Unterhaltungsmedien während der Fahrt abgespielt werden.

Die automatische Erkennung von durch Menschen ausgeführten Gesten mittels eines Computers soll hierbei Abhilfe schaffen. Im Gegensatz zu reinen Näherungssensoren, die auf Infrarot-Technik basieren, nehmen bei der Gestenerkennung 2D- oder 3D-Kameras, die in der Mittelkonsole oder im Lenkrad verbaut werden, ihre Umgebung auf und liefern den Live-Stream direkt an den Computer. Dieser wertet die Aufnahmen postwendend aus und interpretiert die vom Fahrer gewählte Geste.

So kann man in vielen neueren Modellen von BMW z.B. durch das Kreiseln mit einem ausgestreckten Finger die Radiolautstärke anpassen oder durch eine einfache Wischgeste Anrufe oder Verkehrsdurchsagen abbrechen. Und auch neben der eigentlichen Fahrt gibt es bereits Einsatzgebiete. Bei Mercedes wird z.B. die Leselampe zur Unterstützung als ‚Suchlicht‘ eingeschaltet, wenn das System eine Hand erkennt, die auf den leeren Fahrersitz greift.

Zukunftsmusik mit Potenzial

Inwiefern und in welchem Umfang Gestensteuerung allerdings tatsächlich in unseren Alltag Einzug hält, ist aktuell noch nicht vorherzusehen, da sich die Technologie schlicht noch in ihren Kinderschuhen befindet und mit einigen Problemen zu kämpfen hat. Wahrhaft natürliche Bewegungen, wenngleich sie sich an unserem Smartphone-Nutzungsverhalten orientieren, sind bspw. nur schwer für Systeme zu interpretieren. Bislang gibt es sowieso nur ein gutes Dutzend einfacher Gesten, die klar erkannt werden, und selbst hierbei kann es bei der Mustererkennung zu Missverständnissen kommen.

Gleichzeitig haben Gesten eben keine universelle Bedeutung und der Mensch gestikuliert auch, wenn er nicht mit dem System kommunizieren will. Deshalb wird es notwendig sein, dass Gesten individualisiert werden können und von neuen System in einen Kontext gesetzt werden, um zu determinieren, wann es sich tatsächlich um gewollte oder ungewollte Gesten handelt. Es wird also noch einige Zeit dauern, bis der Einsatz von Gestensteuerungen eine Art Ersatz für gängige Eingabemethoden darstellen kann.

Die Kombination aus künstlicher Intelligenz, Sensorik und neuer Tracking-Technologien, die sich auch in der Film- und VFX-Branche rasant weiterentwickelt haben, wird aber zweifellos einen Einfluss auf den weiteren Fortschritt nehmen. Und nicht zuletzt verfügt der Mensch zusätzlich noch über eine Vielzahl weiterer nonverbaler Kommunikationsmöglichkeiten, die zukünftigen Systemen von Nutzen sein können.

So hilft das sogenannte Eye Tracking (Blickerfassung) heute bereits bei der Optimierung von Usability und User Experience im digitalen Kosmos. Hierbei wird z.B. beim Besuch auf einer Landingpage erfasst, wohin der Blick eines Probanden wandert. Was fällt ihm als erstes ins Auge? Wie lange dauert seine Orientierungsphase? Kann er die wichtigsten Informationen und Funktionen (für seine Aufgabe) schnell erkennen oder muss er die Seite mehrmals abscannen?

Bislang kratzen wir aber häufig nur an der Oberfläche, wenn es um die Möglichkeiten sowie Einsatzgebiete dieser neuen Technologien geht. Man darf gespannt sein, welche innovativen Lösungswege in naher Zukunft entstehen, um die User Experience in vielerlei Bereichen zu optimieren und die Mensch-Maschine-Kommunikation auf das nächste Level zu heben.

Diese Artikel könnten Sie auch interessieren