Cornelia Diethelm, Gründerin des Centre for Digital Responsibility (CDR)
Magazin

Digitale Ethik – das Gewissen in der künstlichen Intelligenz

  • Philippe Surber

Als der Astronaut Dave in Stanley Kubricks «2001: A Space Odyssey» (1968) ins Raumschiff zurückkehren will, verweigert der Bordcomputer HAL den menschlichen Befehl. «Es tut mir leid, Dave, aber das kann ich nicht tun.»

Das Narrativ: Science-Fiction. 50 Jahre später ist die Fiktion Realität. Den heutigen Sprachassistenten Alexa (Amazon), Cortana (Microsoft) und Siri (Apple) tut es noch ausserordentlich leid, wenn ein Sprachbefehl nicht sofort verstanden und ausgeführt werden kann. Ihr jeweiliger Tonfall lässt erahnen, dass sie diesem Zustand bald ein Ende setzen möchten. Ein halbes Jahrhundert nach «2001: A Space Odyssey» hat Amazon eine Software entwickelt, die mittels KI ein Ranking der eingegangenen Bewerbungen erstellen sollte. Dumm nur, dass die künstliche Intelligenz aufgrund der Tatsache, dass Frauen unter den mehreren Hunderttausend aktuellen Mitarbeitenden eine Minderheit sind, weibliche Attribute als nachteilig einstufte.

Das Digitale braucht Ethik

Die Hochschule für Wirtschaft Zürich (HWZ) hat ein Weisspapier zur digitalen Ethik veröffentlicht. «Seit dem griechischen Philosophen Aristoteles versteht man unter Ethik jene Disziplin der Philosophie, welche die Moral untersucht: Sie hinterfragt, was richtig und falsch ist, welches Verhalten unter neuen Umständen nach rationalen Gesichtspunkten angebracht ist.» Die Verkehrslage in Google Maps beruht darauf, dass wir unsere Positionen mit Google teilen. Ich vertrete die Ansicht, dass dies kein Problem ist, solange der Datenschutz gewährleistet ist. Für meinen erwachsenen Sohn kommt die Aufzeichnung nicht infrage, weil er sich dadurch überwacht fühlt. Voilà! Was sich geziemt und was nicht, darüber entscheidet die jeweilige Moral. Und Moral, sagt Professor Thomas Beschorner, Direktor des Instituts für Wirtschaftsethik an der Universität St. Gallen, «wird seit je von der technischen Entwicklung beeinflusst». 

Wir sind die technische Entwicklung

Cornelia Diethelm sagt es gegenüber der «Handelszeitung» so: «Wer Daten als strategische Ressource einsetzt, sollte sich fragen, was man mit den Daten konkret macht und was nicht.» Die kundenorientierte Nutzung von Daten sei entscheidend: «Damit schaffen sie Vertrauen und erhöhen die Akzeptanz von digitalen Innovationen.» Eine Datenstrategie sei ein Stück weit Selbstregulation. Lorenzo Mutti, UX Director bei Unic, hat diesbezüglich einen klaren Plan: «Die Beantwortung ethischer Fragen erfordert Vorsicht, Reflexion und Nachdenken. Diversität in Teams und die Sensibilisierung für ethische Fragen sind Massnahmen, die dies unterstützen.» Im Kontext von Technologie nennt er die Einhaltung der Privatsphäre, die Sicherung vor Veröffentlichung sensibler Daten und die Definition und Implementierung von Fairness. Während sich die künstliche Intelligenz vordergründig neutral verhält, wird die Fairness in der Regel von Menschen verletzt. So kennt das User Experience Design nicht nur gutes und schlechtes Design. Es gibt auch böses Design: Als «Dark Patterns» wird die Gestaltung von Benutzeroberflächen bezeichnet, die User absichtlich zu Aktionen verleiten, die nicht unbedingt in ihrem Interesse liegen. Die Lufthansa-Tochter Swiss schaffte es mit ihrer eigenwilligen Version eines Cookie-Consent sogar in die Medien. «Die Republik» nannte das Täuschungsmanöver eine «Art digitaler Hütchenspieler-Trick. Schauen Sie nicht hierhin, schauen Sie da!» Dieses Spiel beherrschen Facebook, Instagram und Tik Tok schon lange. Ihre Benutzeroberflächen werden bewusst so gestaltet, dass wir möglichst viel Zeit dort verbringen. Sarah Spiekermann formulierte in ihrem Buch «Digitale Ethik» die Antithese dazu: «Ethics by Design». Technologien sollen von Anfang an ethisch entwickelt werden. 

Interview mit Cornelia Diethelm

Cornelia Diethelm hat das Centre for Digital Responsibility (CDR) gegründet, ein unabhängiger Thinktank für digitale Ethik im DACH-Raum. Wir wollten mehr darüber wissen.

Du hast einen Thinktank für digitale Ethik gegründet. Was macht dieser Thinktank? 

Cornelia Diethelm: Zum einen unterstützt der Thinktank Unternehmen und Organisationen in der DACH-Region, zum Beispiel mit dem monatlichen Trendradar «Digitale Ethik», der jährlichen Konferenz «Shift» sowie themenbezogenen Projekten, Referaten, Expertisen und Beratung. Zum anderen nehme ich in der Gesellschaft das Bedürfnis wahr, sich mit den Möglichkeiten und Grenzen neuer Technologien und ihrer Auswirkungen auf unser Leben auseinanderzusetzen. Deshalb freut es mich sehr, an der HWZ einen Studiengang und ein Seminar zu digitaler Ethik verantworten zu dürfen. Weiterbildungen werden im digitalen Zeitalter in den nächsten Jahren sicher noch wichtiger. 

Ethik – ein uraltes Thema. Wieso gewinnt es heute so stark an Bedeutung? 

Zuerst waren wir wohl fasziniert, zu sehen, was dank neuen Technologien wie KI möglich ist. Doch nicht alles, was möglich ist, ist auch sinnvoll und wünschenswert. Das realisieren wir nun und fragen uns: Was wollen wir, was wollen wir nicht, und wo braucht es Grenzen? Es geht zum Beispiel um den verantwortungsvollen Umgang mit Kunden- und Mitarbeiterdaten und um den bewussten Entscheid, wo wir die Stärken der Menschen und wo jene der Maschinen nutzen wollen. 

Wo steht das Bewusstsein für das Thema in Unternehmen? 

Das ist ganz unterschiedlich und keine Frage der Grösse. Das Bewusstsein in den Unternehmen hängt von einzelnen Personen ab. Generell bin ich positiv überrascht vom Interesse, das den ethischen Fragen entgegengebracht wird, übrigens auch von Verwaltungsratsmitgliedern! Es gibt immer mehr Verwaltungsräte und Geschäftsleitungen, die sich des Themas annehmen. Am Ende des Tages zählt natürlich das Ergebnis. Schafft es ein Unternehmen beispielsweise, wichtige Prinzipien wie Schutz der Privatsphäre, Nichtdiskriminierung oder Fairness bereits während der Produktentwicklung zu berücksichtigen? Wird verständlich und transparent über den Einsatz neuer Technologien kommuniziert? Darum geht es. 

Was sind die kritischen Faktoren? Wie schafft man es, das Thema in Unternehmen zu verankern? 

Das Wichtigste ist, dass Unternehmen glaubwürdig sind. Es gibt bereits den Ausdruck «Ethics Washing». Statt Vertrauen zu schaffen, auch als Basis für Innovationen dank neuen Technologien, wird dieses zerstört. Da muss man sich nicht wundern, wenn reguliert wird. Selbstverpflichtungen greifen bei unethischen Geschäftspraktiken natürlich schneller, und sie sind in vielen Bereichen effizienter. Unternehmen können sich des Themas glaubwürdig annehmen, indem sie Ethik-Richtlinien verabschieden und diese über eine griffige Governance umsetzen. Zentral für den Erfolg sind glaubwürdige Entscheidungsträgerinnen und gut ausgebildete Mitarbeiter. Und es braucht eine Debattenkultur, damit sensible Themen intern besprochen werden können. Persönlich bin ich überzeugt, dass externe Ethik-Boards ein Gewinn für ein Unternehmen sind, weil sie die interne Logik aufbrechen und zusätzliches Wissen einbringen können.

Die digitale Welt schafft neue Strukturen und Anwendungsfälle, die wir ethisch beurteilen müssen.

Mehr zum Thema in unserem Dossier zu Artificial Intelligence entdecken