Wie künstliche Intelligenz Menschen diskriminiert – und wie nicht

Künstliche Intelligenz ist weltweit auf dem Vormarsch. Doch Bedenken zur Fairness der Algorithmen, die für uns denken, bremsen den Trend. Die Forschung versucht gegenzusteuern.

Von Computeralgorithmen getroffene Entscheidungen finden in immer mehr Bereichen Anwendung, beispielsweise bei der Vorauswahl von Bewerbungen oder in juristischen Verfahren. Damit wird künstliche Intelligenz in heiklen Bereichen eingesetzt: Das bedeutet, dass intelligente Computerprogramme nicht nur sachlich korrekte, sondern auch faire und ethisch vertretbare Entscheidungen treffen müssen. Dass dies nicht immer funktioniert und zu problematischen Resultaten führen kann, zeigt die Praxis: Ein Algorithmus des Versandhändlers Amazon wählte lediglich Männer für die Arbeit aus, eine an US-Gerichten eingesetzte KI setzte für die schwarze Bevölkerung höhere Strafen an als für die weisse. Die Gefahr ist also gross, dass KI bestehende Ungerechtigkeit und Diskriminierung reproduziert.

Wie sich dies verhindern lässt, erforscht ein interdisziplinäres NFP 77-Projekt der Universitäten Zürich, St. Gallen und der ETH Zürich. Wie die Forschenden vorgehen, erläutert der Projektverantwortliche Maël Schnegg, Assistenzprofessor an der Universität St. Gallen: «Wir müssen einen Algorithmus zwar so programmieren, dass er noch das tut, was er soll – also beispielsweise eine Vorauswahl trifft – aber gleichzeitig bestimmte Bedingungen an den Output stellen». Die Künstliche Intelligenz soll dadurch menschlicher werden, also nicht nur sachliche, sondern auch ethische Aspekte berücksichtigen. Wo genau dieses menschliche Element dabei einfliesst und anhand welcher Faktoren das Programm beeinflusst werden soll, sei die grosse Frage.

Um dies zu beantworten, verfolgt das Forschungsprojekt einen interdisziplinären Ansatz zwischen vier verschiedenen Teilbereichen: Die Gruppe von Stefan Feuerriegel entwickelte an der ETH zu Beginn des Projekts einen Algorithmus, der die Regeln der Fairness befolgen kann. Dieser Algorithmus dient den anderen Forschungsgruppen als Versuchsobjekt: Das Team um Gerhard Schwabe an der Universität Zürich beschäftigt sich mit der Frage, wie die Interaktion zwischen Mensch und Maschine funktionieren kann, um das Vertrauen in die Funktion künstlicher Intelligenz zu stärken. Das Team von Klaus Möller an der Universität St. Gallen untersucht, welche Mechanismen auf Unternehmensebene eingeführt werden müssten, um die notwenige Kontrolle über KI auszuüben. Noëlle Vokinger an der Universität Zürich untersucht mit ihren Mitarbeitenden schliesslich, wie ein rechtliches Regelwerk für faire KI aussehen könnte. In der Summe sollen daraus Leitlinien für die Wirtschaft und die Politik entstehen, die einen ethischen Umgang gewährleisten können.

«Künstliche Intelligenz ist grossartig, wenn sie richtig verwendet wird», sagt Schnegg und verweist auf das grosse Potenzial künstlicher Intelligenz: Wenn es Mechanismen gibt, die die Fairness der Algorithmen gewähren und ethische Konflikte verhindern, könnte dieses Potenzial zukünftig besser ausgeschöpft werden.