Ende letzten Jahres war ich bei Google und habe das Accessibility Discovery Center (ADC) besucht. Ich hatte die Gelegenheit, eine spannende Unterhaltung mit Patrick Schilling zu führen, der an KI-Projekten arbeitet und sich für Inklusion einsetzt. Und klar: Wenn solche Einladungen an die Presse ergehen, ist immer auch PR mit im Spiel. Die Unternehmen möchten dezent auf die Dienste hinweisen, die sie für die Allgemeinheit erbringen.
Microsoft hat das schon vor mehr als zwanzig Jahren erkannt: Ich habe Ende 2003 ein Interview mit der damaligen Chefin des Accessibility Labs in Redmond geführt, die damals darauf pochte, dass ihre Abteilung nicht dazu da sei, die Umsätze zu steigern. Und auch wenn ich Microsoft und den anderen Tech-Konzernen die reine Wohltätigkeit nicht abnehme, so bin ich von der damaligen Erkenntnis auch heute noch überzeugt: Die Erfahrung der Nutzerinnen und Nutzer mit Behinderung nützt uns allen. Produkte, bei denen während der ganzen Entwicklungsdauer auf Barrierefreiheit geachtet wird, sind besser als solche, bei denen das keine Rolle spielt. Abgesehen davon sind viele der Bedienungshilfen auch für Leute sinnvoll, die kein Handicap im eigentlichen Sinn haben, aber – und das ist das banalste Beispiel, das mir gerade einfällt – z.B. ab und zu den Mauszeiger aus den Augen verlieren.
Per Blick ein Auto lenken
Zurück zum ADC: In Googles Center gibt es viele der Technologien auszuprobieren, mit denen die Hürden für Nutzerinnen und Nutzer mit Behinderungen bei der Verwendung moderner Geräte gesenkt werden sollen: Es gibt alternative Gamecontroller, Sprachsteuerung und visuelle Hilfsmittel. Am meisten hat es mir die Augensteuerung angetan: Im Google-Center gibt es die Möglichkeit, ein 3D-Rennspiel allein mit den Augen zu absolvieren.
Mit der Position unserer Augen steuern wir das Fahrzeug: Wenn wir den Blick im oberen Bereich des Bildschirms positionieren, drücken wir aufs Gas. Wandert er nach unten, wird das Gefährt langsamer und legt den Rückwärtsgang ein. Gehen die Augen nach links oder rechts, steuert auch der Rennbolide dorthin. Gleichzeitig sollten wir aus den Augenwinkeln das Renngeschehen verfolgen. Diese doppelte Aufgabe ist eine ziemliche Herausforderung. Als Chamäleon hätte man einen echten Vorteil, weil man das eine Auge zur Steuerung und das andere zur Beobachtung benutzen könnte.
Das iPhone mit freien Händen bedienen

Nun brauchen wir nicht unbedingt einen mit einer zur Augensteuerung ausgestatteten Computer, um das auszuprobieren. Mit iOS 18 gibt es auch im iPhone eine Augensteuerung, die per Kamera funktioniert. Diese Funktion heisst Blickerfassung und sie findet sich in den Einstellungen in den Bedienungshilfen.
Beim Einschalten der Blickerfassung ist als Erstes eine Kalibrierung notwendig. Bei der gilt es, den Punkt auf dem Bildschirm mit den Augen zu folgen. Leider ist diese Kalibrierung jedes Mal notwendig. Das dürfte damit zusammenhängen, dass die Umweltbedingungen jeweils so stark wechseln, dass sich die Software jedes Mal neu darauf einstellen muss.
Einmal kalibriert, lässt sich das iPhone tatsächlich mit freien Händen bedienen. Das Element, das wir betrachten, wird durch eine Markierung hervorgehoben. Das kann ein Steuerelement sein, das umrahmt wird. Unter Umständen erscheint auch ein Kreis, der den «Augenzeiger» repräsentiert. Um eine Aktion auszulösen, müssen wir den Blick auf dem Element ruhen lassen. Ein umlaufender Kreis signalisiert, wie lange es dauert, bis dieser Blickkontakt als Antippen bzw. Anklicken registriert wird.
Das ist ein Experiment, das ich allen Leserinnen und Lesern herzlich empfehle: Versucht einmal, euch durch euren Homescreen zu navigieren, eine App zu starten oder gar per Auge ein paar Worte auf der virtuellen Tastatur zu tippen.
Der Kampf mit den Solitär-Karten

Oder wagt euch an eine Runde in eurem Lieblings-Casual-Game. Ich habe es mit einer Partie in der Solitaire Collection versucht, doch das hat nur so weit geklappt, als es reichte, eine Karte anzutippen, um sie umzuplatzieren. Oft müssen wir Karten verschieben, indem wir sie antippen, den Finger gedrückt halten und an die gewünschte Position ziehen. Aber geht das überhaupt? Denn standardmässig können wir per Blick nur tippen.
Über die Konfigurationsmöglichkeiten von Assistive Touch wählen wir aus, welche sich das auch abändern, doch es zeigt sich sofort, dass die meisten Spiele-Apps nicht auf diese Bedienungsform ausgelegt sind. Viele Titel separieren die Elemente des Spielfelds nicht so, dass sie sich individuell per Blick adressieren liessen. Stattdessen wird immer nur das Spielfeld als ganzes aktiviert. Bei solchen fruchtlosen Versuchen bekommen wir einen deutlichen Eindruck davon, wie frustrierend die Smartphone-Nutzung für die User oft sein muss, die das Gerät nicht so bedienen, wie es die App-Entwickler erwarten.
Fazit: ein eindrucksvolles Experiment. Ich habe festgestellt, dass die Erkennung bei mir besser funktioniert, wenn ich die Brille abnehme. Dann allerdings ist das Display unscharf. Aber wenn mich mal der Rappel packt, werde ich einen Blogpost nur per Auge schreiben. Wetten, dass er dann deutlich kürzer ausfällt?
Beitragsbild: Im Accessibility Discovery Center (ADC) bei Google; Screenshot aus dem oben verlinkten Youtube-Video.