Daniel Bönisch, Geschäftsführer, Gesellschafter und Gründer 30.11.2017

Die Evolution des Interfacedesigns – Benutzungskonzepte und Machine Learning

Darwin

Im Zuge der Digitalisierung hat sich vieles, das uns vor kurzer Zeit noch wie Science-Fiction erschien, längst etabliert. Innovationszyklen werden immer kürzer, neue Technologien halten Einzug in unseren Alltag und verändern unsere Gewohnheiten. Aktuell beobachten wir eine überaus dynamische Weiterentwicklung im Bereich Artificial Intelligence bzw. Machine Learning. Unter letzterem versteht man die künstliche Generierung von Wissen aus Erfahrung, deren praktische Anwendung zum Beispiel in der Sprach- und Texterkennung stattfindet.

Für die reibungslose Interaktion zwischen Mensch und Maschine sorgte bis dato hauptsächlich das Interfacedesign. Mit der rasant wachsenden Vielfalt von Nutzungssituationen erweitert sich jedoch auch das Spektrum der Anforderungen an die Bedienung von Applikationen entsprechend schnell – und damit das Aufgabengebiet des Interfacedesigners.

Vom Interfacedesign zum User Centered Design

In unserem Unternehmen kümmern sich gleich zwei Arten von Experten um das Interface von Web-Applikationen. Da sind die Designer, die das Benutzungskonzept (Wie funktioniert das System?) mit Kunden und der Technik erarbeiten. In der Folge kümmern sie sich dann auch um das Design (Wie sieht das System aus?). Die zweite Expertengruppe sind die Frontend-Entwickler, die zwar auch in der vorangehenden Phase beteiligt sind, danach aber verantwortlich die programmiertechnische Entwicklung übernehmen. Dabei arbeiten sie an der Schnittstelle zwischen der Gestaltung und der Programmierung. Deren Arbeit hat einen starken Einfluss darauf, wie ein System auf Anwendereingaben reagiert und damit auch, wie es sich „anfühlt“. So leisten sie einen wesentlichen Beitrag zur Akzeptanz und damit zum Erfolg der Lösung.

Dass so viel Aufwand in die Entwicklung von Interfaces gesteckt wird, ist allerdings eine vergleichsweise neue Entwicklung.

Dabei benötigte man bereits zu Beginn der Industrialisierung Mensch-Maschinen-Schnittstellen: Welche Informationen braucht der Heizer eines Dampfkessels, um zu entscheiden, ob er noch eine Schippe drauflegt? Welche Hebel und Knöpfe benötigt er, um den Druck zu kontrollieren? Lange Zeit wurden Maschinen gebaut, um von Menschen (im wahrsten Sinne des Wortes) bedient zu werden, d.h. Anzeigen und Kontroll-Elemente wurden dort angebracht, wo sie mechanisch am meisten Sinn machten. Lediglich grundsätzliche ergonomische Maßgaben – etwa die Größe eines Menschen – wurden berücksichtigt. Im Laufe der Jahre und mit der zunehmenden Komplexität der Apparate wurde die Effektivität der Benutzung ein wichtiges Kriterium. Es entstanden erste Kontrollpaneele, die Informationsanzeigen und Kontrollinstrumente in einer ergonomischen Anordnung zusammenfassten. Als mechanische Apparate auch in den privaten Raum der Menschen Einzug hielten, wurde es zunehmend wichtig, dass diese auch von Nicht-Experten bedient werden konnten. Man kümmerte sich um Verständlichkeit der Bedienungskonzepte.

Mit der Verbreitung des Computers wurde diese Geschichte noch einmal nachvollzogen. Die ersten Geräte waren große Schaltschränke, die mittels Schalter und Relais „bedient“ wurden. Später folgten Lochkarten, anhand derer man Programme übermitteln konnte. Erst viele Jahre später meldete sich der erste Rechner auf einem Monitor zur Arbeit bereit. Der Schritt von der textuellen Eingabe von Befehlen zur grafischen Benutzeroberfläche ging – wie so vieles danach – auf einmal recht schnell. Spätestens durch die Smartphones wurde das Thema Usability zu einem vorrangigen Verkaufsargument. Die kleinen, aber leistungsstarken Geräte verkaufen sich nicht zuletzt deshalb so gut, weil sie auch komplexe Benutzungsszenarien ohne Einweisung oder Schulung ermöglichen. Selbst Kleinkinder erlernen den Umgang damit spielend.

Waren es am Anfang noch die Ingenieure, die die Benutzungskonzepte neben der eigentlichen technischen Entwicklung übernahmen, entwickelte sich schon bald ein eigenes Berufsbild, das sich ausschließlich mit der Gestaltung von Schnittstellen befasste. Heutzutage kommt kein Software-Unternehmen ohne Interfacedesigner aus. Grundlegende Prinzipien der Arbeit sind jedoch gleichgeblieben. Wie früher überlegt sich ein Experte, wie das System am einfachsten zu bedienen ist. Dabei steht im modernen Interfacedesign immer der Nutzer im Fokus – der Begriff des User Centered Designs beschreibt den Prozess der Annäherung der Bedienkonzepte an den antizipierten Nutzer. Heutige Anwendungen werden vor der Markteinführung in unzähligen Tests auf ihre Gebrauchstauglichkeit getestet und optimiert. Dabei misst man die Zeit, die der Nutzer für bestimmte Aufgaben braucht, prüft, wohin der Testnutzer gerade blickt, fragt ihn nach seiner Befindlichkeit und analysiert sogar Gehirnströme, um die Benutzbarkeit zu bewerten. 

Reaktiv, adaptiv, individuell: Interfaces von morgen

All diesen Verfahren ist jedoch gemein, dass man ein System zu entwickeln sucht, das möglichst allen Nutzern gerecht wird. Auch wenn man beim User Centered Design versucht, unterschiedliche Zielgruppen und Nutzungsszenarien zu antizipieren, bleibt das Ergebnis in zwei Aspekten suboptimal:

  1. Es berücksichtigt Zielgruppen, keine Individuen. Auch wenn man Lösungen individuell anpassen kann (Schriftgrößen, Farben), bleibt es doch beim bestmöglichen Kompromiss zwischen den Anforderungen unterschiedlicher Zielgruppen.
  2. Es bleibt statisch. Moderne Hardware kann zwar online mit neuen Betriebssystemversionen ausgestattet werden – jede Applikation an sich ist jedoch ein unveränderliches Ergebnis der Arbeit der Ingenieure und Designer.

 

In naher Zukunft werden Systeme jedoch nicht nur erwartungsgemäß klüger, sondern auch deutlich reaktiver werden. Unser Smartphone stimmt bspw. bereits die Leuchtkraft des Bildschirms auf die Umgebungshelligkeit ab, um ein Blenden des Nutzers in der Dunkelheit zu vermeiden. Ein Lichtsensor (über die Kamera) liefert die Information, auf das das System reagiert. Verbindet sich das Smartphone via Bluetooth mit dem Auto, liefern aktuelle Modelle bereits Informationen über die Fahrt zur Arbeit oder nach Hause (wofür zusätzlich GPS-Daten und bisherige Bewegungsmuster ausgewertet werden).

Der Schritt zur individual-adaptiven Lösung ist nicht mehr weit. Ein Smartphone kann das Alter eines Nutzers über eine integrierte Gesichtserkennung schätzen und das Interface darauf abstimmen (größere Schrift, stärkere Kontraste). Selbst den Gemütszustand könnten Anwendungen bereits erkennen und darauf reagieren - und zum Beispiel gut gelaunte Touristen mit zusätzlichen Informationen versorgen, während der müde Außendienst-Mitarbeiter auf dem Heimweg nur den schnellsten Weg nach Hause erhält. 

Haben unsere Systeme erst einmal gelernt ihre Umwelt und ihre Nutzer zu erkennen, ist der nächste konsequente Schritt, dass sie sich auch eigenständig entwickeln. Dem Vorbild der Natur folgend werden sich Applikationen kleine Abweichungen (z.B. Farbveränderung, Positionsveränderungen von Schaltflächen) erlauben und anhand der Reaktion der Nutzer (schnellere Reaktion, zufriedenerer Gesichtsausdruck …) bewerten. Durch die Vernetzung der Geräte über die Cloud werden die Systeme nicht nur individuelle Einzelauswertungen, sondern auch großangelegte Feldversuche durchführen können. Nach und nach können sie sich dadurch sowohl insgesamt weiterentwickeln, als auch an individuelle Nutzer anpassen. Zwei Personen mit der gleichen oder gar derselben Hardware werden dann mit auf sie zugeschnittenen, individuellen Interfaces angesprochen.

Der Interfacedesigner wird dann lernen müssen, Lösungen perspektivisch zu gestalten und zu akzeptieren, dass ein Release lediglich den Beginn einer evolutionären Verselbstständigung seiner Arbeit bedeutet. Die Systeme so zu entwickeln, dass sie ihre Interfaces in Zukunft eigenständig für eine Interaktion mit dem Menschen optimieren, könnte eine verantwortungsvolle Aufgabe der Designer und Frontend-Entwickler in den nächsten fünf Jahren sein.