Wie kann künstliche Intelligenz fair und gerecht gestaltet werden?

Eine neue Methode ermöglicht es, KI-Anwendungen sozialverträglich zu gestalten, denn künstliche Intelligenz muss nicht nur technisch hochstehend, sondern auch fair und nicht-diskriminierend sein.
Künstliche Intelligenz wird zunehmend für Entscheidungen genutzt, die tief in den Alltag der Menschen eingreifen, zum Beispiel bei Stellenbesetzungen. Dies kann zu sozialen Ungerechtigkeiten führen, wenn die KI-Systeme nicht auf Fairness und Gerechtigkeit ausgelegt sind. Ein Forschungsteam unter der Leitung von Christoph Heitz (Zürcher Hochschule für Angewandte Wissenschaften ZHAW) entwickelte nun erstmals eine Methodik, die philosophische Konzepte von Gerechtigkeit mit technischen Umsetzungsstrategien verknüpft.
Die wichtigsten Erkenntnisse
Fairness in KI-Anwendungen entsteht nicht durch ein allgemeines Standardverfahren, sondern muss immer im konkreten Kontext verhandelt werden. Dies ist die zentrale Botschaft des Forschungsprojekts. Es braucht dazu stets die Einbettung der betroffenen Akteure, denn nur wenn die unterschiedlichen Vorstellungen von Gerechtigkeit berücksichtigt werden, kann Fairness angemessen in KI-Algorithmen umgesetzt werden.
Eine weitere Voraussetzung für die Implementierung von Fairness ist, dass Entwickler:innen von KI-Anwendungen die philosophischen und moralischen Dimensionen verstehen, damit sie technische Entscheidungen ethisch fundiert treffen können. Informatiklehrpläne müssen daher Fairness als interdisziplinäre Aufgabe integrieren – und diese nicht nur als rein technische Frage behandeln.
Bedeutung für Politik und Praxis
Das Projekt hat erstmals einen methodologischen Rahmen für algorithmische Fairness geschaffen, der sowohl ethische wie auch technische Aspekte berücksichtigt: Ein systematisches Verfahren, das Ethik, Philosophie und Informatik verbindet, um Fairness-by-Design in KI-gestützten Entscheidungssystemen umzusetzen. Das bedeutet, dass Fragen der Fairness und Gerechtigkeit nicht erst im Nachhinein geprüft und falls nötig korrigiert werden, sondern von Anfang an systematisch in die Entwicklung von KI-Systemen eingebaut werden. Die entwickelte Methodik erlaubt einerseits einen neuen Zugang zu Fragen der sozialen Gerechtigkeit von KI-basierten Entscheidungssystemen. Andererseits bietet sie auch die Grundlage für die Ausbildung einer neuen Generation von KI-Entwickler:innen. Erste Ausbildungsprogramme, zum Beispiel neue Module zu «Responsible AI» an der ZHAW, wurden bereits umgesetzt.
Mit dem FairnessLab wurde zudem ein Software-Tool entwickelt, das Nutzer:innen Schritt für Schritt durch die ethisch-technische Analyse von KI-Anwendungen führt. Es handelt sich um ein web-basiertes Visualisierungs- und Assessment-Tool, das unter anderem die Konsequenzen des Designs von KI-Anwendungen viasualisiert. Unternehmen erhalten damit ein Werkzeug, das sie bei der Entwicklung fairer Algorithmen unterstützt: Sie können damit eigene Datensätze analysieren, moralische Bewertungen einbeziehen und Effekte von Designänderungen sichtbar machen. Für die Behörden liefert das Projekt praktisches Wissen darüber, wie Anforderungen an faire KI – etwa im Rahmen des «AI Act» der EU – konkretisiert werden können.
Drei Hauptbotschaften
Manager:innen, die für den Einsatz KI-gestützter Entscheidungssysteme verantwortlich sind, sollten Verstösse gegen Prinzipien der Fairness bei algorithmischen Entscheidungen minimieren, da dies für die soziale Akzeptanz entscheidend ist. Es ist wichtig, die Betroffenen einzubeziehen, um zu verstehen, welches Ideal von sozialer Gerechtigkeit sie bevorzugen und welche Abweichungen von diesem Ideal sie akzeptieren.
Entwickler:innen von KI sollten sich bewusst sein, dass Fairness komplex ist, aber die Philosophie dabei helfen kann, sie zu verstehen. Informatiker:innen müssen sich dieses Verständnis aneignen, damit sie KI-Systeme entwickeln können, die angemessene Formen der Fairness umsetzen. Auch sollte Fairness nicht als eine rein technische Aufgabe behandelt werden. Die technisch möglichen Fairness-Metriken sollten mit ihrer moralischen Substanz in Verbindung gebracht werden. KI-Entwickler:innen sollten sich bei der Auswahl eher an moralischen Anforderungen als an technischen Fragen orientieren. Sie sollten eine faire Algorithmustechnik erst implementieren, nachdem sie analysiert haben, was Gerechtigkeit im spezifischen Kontext ihrer Anwendung erfordert. Um solche Anforderungen umzusetzen, ist die Integration von Konzepten aus der Mathematik, der Entscheidungstheorie, der Philosophie und den Sozialwissenschaften notwendig.
Dozent:innen der Computer Sciences sollten neue Lehrpläne für die Vermittlung algorithmischer Fairness in der Informatik entwickeln. Die Entwicklung von sozialverträglichen KI-Systemen kann nicht mit dem Standard der heutigen Lehrpläne erreicht werden. Es bedarf eines Verständnisses der Technologie und ihrer Auswirkungen auf die soziale Gerechtigkeit – letztere erfordert Konzepte der politischen Philosophie zur Beurteilung. Es sollte auch darauf geachtet werden, dass diese Lehrpläne Fairness nicht als rein technische Aufgabe behandeln.
Wie die Forschenden methodisch genau vorgegangen sind und weitere Hintergründe zum Forschungsprojekt finden Sie auf der NFP 77-Projektwebseite:
Weitere Forschungsprojekte zum Thema «Digitale Transformation» im Rahmen des Nationalen Forschungsprogrammes NFP 77 finden Sie hier:
