Sozialverträgliche und faire künstliche Intelligenz

Die Entscheidungen einer Künstlichen Intelligenz sind nicht immer fair.

Künstliche Intelligenz (KI) muss fair und sozial ausgewogen sein, um gesellschaftlich akzeptiert zu werden. Wissenschaftler:innen aus Ethik, Informatik und Management entwickelten gemeinsam einen neuartigen Ansatz, um Fairness-by-Design konkret umzusetzen.

  • Projektbeschrieb (abgeschlossenes Forschungsprojekt)

    Dropdown Icon

    Wird künstliche Intelligenz (KI) eingesetzt, zum Beispiel bei Personalentscheidungen in Unternehmen, kann dies zu sozialer Ungerechtigkeit führen. Die Methodik, die in diesem interdisziplinären Projekt ausgearbeitet wurde, erlaubt es, bei der Entwicklung von KI-Anwendungen deren Fairness und Ausirkungen auf die soziale Gerechtigkeit zu verstehen, konkret zu gestalten und entsprechend technisch zu implementieren. Die Methodik unterstützt den Diskurs von Stakeholdern, wie KI im konkreten Anwendungsfall sozialverträglich ausgestaltet werden soll, und sie ermächtigt Software-Entwickler:innen, normative Vorgaben technisch umzusetzen. Sie verbindet so den ethischen Diskurs über KI mit der technologischen Umsetzung von KI. Dabei werden philosophische, technische und sozialwissenschaftliche Aspekte von KI miteinander verknüpft: Was bedeutet Fairness und soziale Gerechtigkeit im konkreten Fall? Wie kann ein Konzept von Fairness, auf das man sich geeinigt hat, technisch umgesetzt werden? Was muss für einen sozial ausgewogenen Interessensausgleich berücksichtigt werden?

  • Hintergrund

    Dropdown Icon

    KI-basierte Entscheidungssysteme greifen zunehmend in die soziale Lebenswelt von Menschen ein. Dies wirft die Frage auf, wie diese Systeme kompatibel mit gesellschaftlichen Normen in Bezug auf Fairness und Gerechtigkeit gestaltet werden können. Die konkrete Ausgestaltung solcher Systeme erfordert eine systematische und reflektierte Verknüpfung von Ethik, Technologie und sozialen Entscheidungsprozessen.

  • Ziel

    Dropdown Icon

    Das zentrale Ziel des Projekts war es, Entwickler:innen von KI-basierten Entscheidungssystemen zu befähigen, KI-Anwendungen so zu gestalten, dass sie Erwartungen an Fairness und Gerechtigkeit erfüllen und damit sozial akzeptiert werden. Dazu wurden philosophische Konzepte von Gerechtigkeit mit den technischen und sozialen Gegebenheiten automatisierter Entscheidungssysteme verknüpft.

  • Bedeutung

    Dropdown Icon

    Mit dem Projekt konnte im Gebiet der Algorithmic Fairness eine methodisch durchgängige Verknüpfung von Ethik und Technologie geschaffen werden, die so bisher nicht existierte. Die auf dieser Grundlage entwickelte Methodik erlaubt einen neuen und systematischen Zugang zu Fragen der sozialen Gerechtigkeit von KI-basierten Entscheidungssystemen. Dies ist sowohl für die weitere Entwicklung der Forschung in diesem Gebiet als auch für die konkrete Ausgestaltung von KI-Systemen in der Praxis relevant. Mit dem Projekt wurde auch die Grundlage für die Ausbildung eine neuen Generation von KI-Entwicklern geschaffen, die mit dem Phänomen Fairness und Gerechtigkeit besser umgehen können als bisher. Erste Ausbildungsprogramme wurden bereits implementiert.

  • Resultate

    Dropdown Icon

    Drei Hauptbotschaften

    1. Manager:innen, die für den Einsatz KI-gestützter Entscheidungssysteme verantwortlich sind, sollten Verstösse gegen Prinzipien der Fairness bei algorithmischen Entscheidungen minimieren, da dies für die soziale Akzeptanz entscheidend ist. Es ist wichtig, die Betroffenen einzubeziehen, um zu verstehen, welches Ideal von sozialer Gerechtigkeit sie bevorzugen und welche Abweichungen von diesem Ideal sie akzeptieren.
    2. Entwickler:innen von KI sollten sich bewusst sein, dass Fairness komplex ist – aber die Philosophie dabei helfen kann, sie zu verstehen. Informatiker:innen müssen sich dieses Verständnis aneignen, sonst ist es nicht möglich, KI-Systeme zu entwickeln, die angemessene Formen der Fairness umsetzen. Auch sollte Fairness nicht als eine rein technische Aufgabe behandelt werden. Die technisch möglichen Fairness-Metriken sollten mit ihrer moralischen Substanz in Verbindung gebracht werden, und KI-Entwickler:innen sollten sich bei der Auswahl eher an moralischen Anforderungen als an technischen Fragen orientieren. Sie sollten eine faire Algorithmustechnik erst implementieren, nachdem sie analysiert haben, was Gerechtigkeit im spezifischen Kontext ihrer Anwendung erfordert (was eine moralische, nicht eine technische Frage ist). Und um solche Anforderungen konkret umzusetzen, ist die Integration von Konzepten aus der Mathematik, der Entscheidungstheorie, der Philosophie und den Sozialwissenschaften notwendig.
    3. Dozent:innen der Computer Sciences müssen neue Lehrpläne für die Vermittlung algorithmischer Fairness in der Informatik entwickeln. Die Entwicklung von sozialverträglichen KI-Systemen kann nicht mit dem Standard der heutigen Lehrpläne erreicht werden. Es bedarf eines Verständnisses der Technologie und ihrer Auswirkungen auf die soziale Gerechtigkeit – letztere erfordert Konzepte der politischen Philosophie zur Beurteilung. Es sollte auch darauf geachtet werden, dass diese Lehrpläne Fairness nicht als rein technische Aufgabe behandeln.

  • Originaltitel

    Dropdown Icon

    Socially acceptable AI and fairness trade-offs in predictive analytics