Zum Experten-Blog

Als «UX-ler» an der Frontend Conference

  • Mayumi Sugaya

Die Disziplinen wachsen zusammen. In den Anfängen der Frontend Conf ging es vor allem um Code und Visual Design. Nach und nach kamen Themen dazu, die beim Programmieren der Schnittstelle zwischen Mensch und Maschine auch eine Rolle spielen: User Experience, Research, Leadership, diese Liste ginge noch weiter.

Meine Highlights von der Frontend Conf 18:

Die Highlights der Frontend Conf 2018

Josh Clark – Designing in the Era of the Algorithm

Wie künstliche Intelligenz uns verspeist und wie wir darob nicht den Kopf verlieren. Zu seinem Talk gleich mehr.

Anna Jozanis – Surrounded by Self-Styled UX Experts

UX-Experten im Management – unerreichbares Paradies für “UX-ler”? Bei Allegro, Polens grösster E-Commerce-Plattform, ist das Realität. Nicht von heute auf morgen, nicht innerhalb eines Jahres, aber das Verdienst jahrelangen Modellierens der UX-Kultur. Dass der Nutzer im Zentrum ist, steht bei Allegro in den Kernwerten. Anna Jozanis teilte wertvolle Tipps und lustige Anekdoten. Wir können viel von ihr lernen.

Jane Austin – The Three Stages of Leadership

Wir haben ja keine Chefs mehr, da Holacracy. Aber Jane Austin als Vorgesetzte? Keine Sekunde würde ich zögern. Witzig, kurzweilig und geistreich nährt sie die Hoffnung – doch, es gibt ihn, den genialen Chef. Ein paar Aussagen: “All I do is hire good people and then get out of their way.” “As a leader you have to be the shit umbrella.” “Emotional Intelligence should be a requirement of being a manager.”

Die Talks gibt’s auf Vimeo https://vimeo.com/frontendconf

Doch nun zu Josh.

Künstliche Intelligenz braucht Dich!

In Zeiten von Algorithmen, Datenkraken und selbstfahrenden Autos hatte das Thema Artificial Intelligence an der diesjährigen Frontend Conf eine Sonderstellung. Dies wurde schon bei der Keynote von Josh Clark deutlich. Nach einem Buzzword-Dropping “Machine Learning, Algorithms, Augmented Reality, Artificial Intelligence, Machine generated Content, Machine generated Interactions,…” folgte ein unterhaltsames Feuerwerk mit einer wichtigen Kernbotschaft: Nehmt eure Verantwortung im Umgang mit künstlicher Intelligenz wahr.

1. Experimentiere

Wie anfangen? Schon Kinder lernen am besten spielerisch, warum nicht auch Erwachsene? Grosse Tech-Firmen haben angefangen, Machine Learning als Ware zu verkaufen: Emotion API, Amazon AWS, IBM Watson undsoweiter. Clark ermuntert uns, damit zu experimentieren. Spass zu haben beim Umgang mit AI, diese Dienste spielerisch anzuwenden als “Design Material”.

Spass haben wir bisweilen auch an unfreiwilliger Komik. Die Maschinen mögen uns in einigen Dingen voraus sein. Was sie (noch?) nicht können sind Zwischentöne wie Humor, Ironie, Sarkasmus, oder auch Zweifel oder Unsicherheit. Maschinen machen Fehler. Und diese sind manchmal unfreiwillig lustig.

Clark zeigt Beispiele, wie etwa Bilderkennung schief gehen kann (“Das ist ein Dinosaurier auf einem Surfboard”, das vermeintliche Surfboard ist ein Zollstock). Oder wie die Nervensägen der Trickfilmserie South Park über den laufenden Fernseher den Sprachcomputer Alexa fernsteuern. Mit Einfällen wie “Alexa, put ‘hairy balls’ on the shopping list.” - in zig Haushalten rund um die Welt.

2. Data Presentation

Clark schlägt vor, die Darstellung maschinengenerierter Antworten zu überdenken. Eine KI tut immer so, als wäre sie zu 100% sicher. Auch wenn sie dies nur zu 2% ist. “Answer Machines have an overconfidence problem.”

Wie wäre es, wenn wir bei gewissen Unsicherheiten eine verbale Komponente hinzufügen würden, wie etwa “Das ist ein Dinosaurier, vielleicht auf einem Surfboard”. Die zentrale Frage ist hier: Wie können wir Systeme entwickeln, die schlau genug sind, zu wissen, dass sie nicht schlau genug sind? Wie können wir den Systemen Unsicherheit, Bescheidenheit beibringen?

3. Data Bias

Beim dritten und vierten Teil hebt Josh Clark das Thema auf eine gesellschaftliche Ebene. Wir werden uns bewusst, welchen Einfluss KI auf unser menschliches Zusammenleben, die Politik, vielleicht sogar den Weltfrieden hat.

Die Maschinen wissen nur das, womit wir sie füttern. Wenn sie mit Mist gefüttert werden, kommt Mist raus. Garbage in, garbage out. Doch was wäre, wenn die vorherrschende Normalität eigentlich Mist ist? Mainstream von geringerer Qualität – gar nicht so abwegig.

What if the prevailing normal is actually garbage?

Die gefährlichen “Biases” (systematische Verzerrungen oder Fehler) sind die subtilen. Unlängst haben Forscher herausgefunden, dass Google einen “Gender Bias” hat, also Frauen benachteiligt hat (Frage: “Are women evil?” Antwort: “Yes”). Dies wurde darauf zurückgeführt, dass die Informationsquellen hauptsächlich Männer waren. Der Fehler war niemandes böse Absicht, und dennoch war er gravierend.

Es gibt weitere Beispiele mit Künstlicher Intelligenz, die nur “sein Herrchen” kennt (middle class white male). Etwa der Seifenspender mit optischem Auslöser, der nur bei heller Hautfarbe funktioniert. Oder das Passfoto eines Asiaten, das von der Maschine nicht akzeptiert wurde, da angeblich die Augen geschlossen seien (die Augen waren offen).

Wie können wir diese künstlichen Intelligenzen korrigieren, hin zu einer Welt, die wir wollen? Wenn wir bessere Maschinen wollen, müssen wir ihnen bessere Vorbilder sein. Das fängt damit an, dass wir Andersartige nicht mehr als andersartig bezeichnen.

4. Training Data

Wie sammeln wir diese Trainingsdaten? Josh Clark nennt dies UX Research im Ultragrossformat. Erster Schritt: Design Teams müssen möglichst vielfältig sein, eine hohe Diversität haben. Es braucht mehr kritisch denkende Menschen in UX-Teams: Psychologen, Philosophen, Kunstkritiker, Politiker, undsoweiter.

Menschen sind das Futter, das die Maschinen verspeisen. Wir sind das Produkt, die Trainingsdaten. Täglich nutzen wir Dienste, deren eigentlicher Zweck es ist, unsere Daten zu sammeln, um damit Maschinen zu füttern. Längst haben wir die Kontrolle über unsere Daten verloren. Umso mehr müssen wir bei jeder Spur, die wir in der virtuellen Welt hinterlassen, unserer Verantwortung bewusst werden.

Clark fordert uns auf, Ratlosigkeit in Optimismus umzuwandeln. Der technische Fortschritt lässt sich nicht aufhalten. Was uns bleibt ist, das beste daraus zu machen und Einfluss zu nehmen, wo wir können.

Total surveillance is inevitable. But what’s not inevitable is what we do with it.

Die Verantwortung von UX Designern und Entwicklern

Clark appelliert an unseren gesunden Menschenverstand. Verantwortliche müssen sich bei jeder Entscheidung fragen: Ist dies wirklich im Interesse des Nutzers? Ist diese Entscheidung vereinbar mit meinen Werten? “Be loyal to the user.”

Wir müssen entscheiden. Denn wenn wir es nicht tun, werden die Maschinen es für uns tun.

It Takes a Village to Raise a Bot

Der Spirit der Frontend Conference in Zürich war auch dieses Jahr überwältigend. Jedes Jahr kommen in Zürich für zwei Tage Developer und User-Experience-Experten zusammen, lachen und lernen miteinander.

Slobodans schöne serverlose Slides

Hier schreibe ich über Slobodan Stojanovićs Präsentation «Serverless: A Backend Thing That Gives Superpowers to Frontend Developers» vom 30. August 2018, dem ersten Tag der diesjährigen Frontend Conference in Zürich.