Une intelligence artificielle équitable et socialement acceptable
L’intelligence artificielle (IA) doit être équitable et socialement équilibrée pour être acceptée. Des spécialistes de l’éthique, de l’informatique et du management ont décliné concrètement le concept de Fairness-by-Design.
Description du projet (terminé)
L’utilisation de l’intelligence artificielle (IA), par exemple dans les décisions relatives au personnel des entreprises, est susceptible de conduire à l’injustice sociale. Ce projet interdisciplinaire évalue l’équité et l’impact d’applications d’IA afin d’optimiser leur conception et leur mise en œuvre technique. Il rejoint le discours des parties prenantes qui requièrent que l’IA soit conçue de manière socialement acceptable pour être appliquée concrètement et autorise les développeurs de logiciels à entériner des directives normatives. Il jette un pont entre discours éthique et pratique en réunissant les aspects philosophiques, techniques et sociaux de l’IA : que signifient équité et justice sociale dans un cas concret ? Comment un concept d’équité approuvé peut-il être traduit techniquement ? Comment garantir une pondération équilibrée des intérêts sociaux ?
Contexte
Les systèmes décisionnels basés sur l’IA interviennent de plus en plus dans notre vie sociale. Se pose alors la question de savoir comment ils peuvent être conçus de manière à être compatibles avec les normes prévalant en matière d’équité et de justice. Le développement concret de tels systèmes exige qu’un lien systématique et réfléchi soit établi entre éthique, technologie et processus de décision sociaux.
Objectif
L’objectif principal de ce projet était de permettre aux développeurs de systèmes décisionnels basés sur l’IA de concevoir des applications répondant aux attentes de la population en matière d’équité et de justice afin qu’elles soient socialement acceptables. A cette fin, des concepts philosophiques ont été corrélés aux caractéristiques techniques et sociales de systèmes décisionnels automatisés.
Importance
Le projet a créé un lien méthodologique entre éthique et technologie que ne connaissaient pas les algorithmes. Il permet une approche systématique des questions de justice sociale posées par les systèmes de décision basés sur l’IA. Il est pertinent pour le développement de la recherche comme pour la pratique. Il a également permis de donner naissance à une nouvelle génération de développeurs, qui seront mieux à même de gérer les questions d’équité et de justice, et à de premiers programmes de formation.
Résultats
Trois messages essentiels
- Les managers qui sont responsables de l’utilisation de systèmes décisionnels basés sur l’IA doivent veiller à minimiser les violations des principes d’équité susceptibles d’être commises par des décisions algorithmiques. Ce point s’avère essentiel pour leur acceptation sociale. Il est important que les personnes concernées soient impliquées afin de déterminer quel idéal de justice sociale elles privilégient et quels écarts elles acceptent par rapport à cet idéal.
- Les développeuses et développeurs d’applications basées sur l’intelligence artificielle doivent être conscients que les questions d’équité sont complexes, mais que la philosophie peut les aider à mieux appréhender ces notions. S’ils n’acquièrent pas cette compréhension, il ne leur sera pas possible de développer des systèmes d’IA mettant en œuvre des formes appropriées de justice sociale. Ils devront également veiller à ce que l’équité ne soit pas traitée comme une tâche purement technique. Les paramètres d’équité techniquement réalisables devraient être mis en relation avec leur substance morale, et les informaticien·nes devraient orienter leurs choix en privilégiant les exigences éthiques sur les questions techniques. Une technique algorithmique équitable ne devrait pas être mise en œuvre sans que les exigences que pose l’équité dans un contexte d’application spécifique aient été analysées (ce qui constitue une question d’ordre moral et non technique). Et pour que de telles exigences puissent être concrètement prises en considération, des concepts issus des mathématiques, de la théorie de la décision, de la philosophie et des sciences sociales doivent être combinés.
- Les sciences informatiques doivent développer de nouveaux programmes en vue d’enseigner l’équité algorithmique. Les standards sur lesquels sont fondés les programmes d’enseignement actuels ne permettent pas de développer des systèmes d’IA socialement équitables. Il convient donc d’aboutir à une compréhension approfondie de cette technologie et des impacts qu’elle exerce en matière d’équité sociale – dont l’évaluation exige de recourir à des concepts de philosophie politique. Il sera également nécessaire de veiller à ce que ces programmes ne traitent pas de l’équité comme d’une tâche purement technique.
Titre original
Socially acceptable AI and fairness trade-offs in predictive analytics