Faire KI als Erfolgsfaktor: Vertrauen entsteht nur, wenn Fairness mitgedacht wird

© Arnab Dey / iStock

KI kann helfen, Entscheidungen zu treffen – sie wird aber nur akzeptiert, wenn sie als fair wahrgenommen wird. Ein Forschungsteam zeigt, wie Unternehmen faire KI-Systeme entwickeln können, um Vertrauen und Akzeptanz zu fördern.

Künstliche Intelligenz kann Unternehmen helfen, Entscheidungen zu treffen. Doch beim konkreten Einsatz von KI zögern noch viele Unternehmen, wie das Forschungprojekt unter der Leitung von Professor Klaus Möller (Universität St. Gallen) zeigt. Denn KI neigt dazu, bestehende Verzerrungen in den Daten zu reproduzieren. Dies kann zu diskriminierenden Vorhersagen führen.

Und genau da setzte das Forschungsteam an. Sie untersuchten die Mechanismen, die das Vertrauen in die KI fördern und entwickelten daraus einen Leitfaden, wie Unternehmen faire algorithmische Systeme entwickeln können.

Die wichtigste Erkenntnis

Die Forschung zeigt auf, dass Fairness im Zusammenhang mit KI wichtig ist, damit die Menschen bereit sind, überhaupt künstliche Intelligenz zu nutzen. Fairness ist also ein zentrales Element für Vertrauenswürkdigkeit. Ohne eine minimale Fairness-Garantie würden Nutzerinnen und Nutzen kaum KI einsetzen.

Die Erhöhung der Fairness wird also die Nutzung und Verbreitung von KI steigern.

Bedeutung für Politik und Praxis

Anstatt KI einzuschränken, sollte die Politik also lieber auf die Förderung eines ethischen Ansatzes setzen – so das Forschungsteam.

Wie aber können Unternehmen und Organisationen bei sich faire KI einsetzen? Dazu entwickelten die Forschenden im Rahmen dieses Projektes verschiedene Tools und Richtlinien für das Management oder Verwaltungen, um ihnen bei der Entscheidungsfindung im Hinblick auf den Einsatz von Technologien für automatiserte Entscheidungen zu helfen (die Links zu den entsprechenden Dokumenten finden Sie weiter unten im Text).

Ein konkreter Tipp von Forschungsleiter Klaus Möller:

Definieren Sie Grenzen und Ziele, bevor sie mit der Implementierung von KI experimentieren

Prof. Klaus Möller

Fairness von KI beruht allerdings nicht nur auf technologischen Aspekten. Genau so wichtig ist der menschliche Aspekt, denn die Implementierung von KI in Unternehmen ist zum scheitern verurteilt, wenn sich Interessensgruppen (bsp. Mitarbeitende) in ihrer Integrität oder ihrer Privatsphäre bedroht fühlen.

Drei Hauptbotschaften

  1. Die Integration von Fairness in KI verbessert die Wahrnehmung von KI durch die Stakeholder.
  2. Um das Vertrauen in KI zu stärken, sind sowohl technische (faire KI) als auch gesellschaftliche Massnahmen erforderlich (Governance, Regulierung, Zieltransparenz).
  3. Stakeholder nehmen Fairness unterschiedlich wahr, je nachdem, ob ein Mensch oder eine KI die Entscheidungen trifft.

Wie die Forschenden methodisch genau vorgegangen sind und weitere Hintergründe zum Forschungsprojekt finden Sie auf der NFP 77 Projektwebsite: Governance und rechtlicher Rahmen für das Management von künstlicher Intelligenz

Weitere Forschungsprojekte zum Thema «Digitale Transformation» im Rahmen des Nationalen Forschungsprogrammes NFP 77 finden Sie in der Projektübersicht.