Comment concevoir une intelligence artificielle juste et équitable ?

Une nouvelle méthode permet de concevoir des applications d’IA socialement équitables, car non contente d’être à la pointe de la technologie, l’intelligence artificielle se doit d’être juste et exempte de biais discriminatoires.
L’intelligence artificielle (IA) est de plus en plus fréquemment utilisée pour prendre des décisions qui exercent de profonds impacts sur la vie quotidienne de la population, par exemple lors de l’attribution d’emplois. Lorsque les systèmes d’IA n’ont pas été conçus de manière à respecter des principes de d’éthique et d’équité, ils sont susceptibles d’être source d’injustice sociale. Une équipe de recherche dirigée par Christoph Heitz à la Haute école des sciences appliquées de Zurich (ZHAW) a développé la toute première méthodologie permettant de jeter un pont entre concepts philosophiques et stratégies techniques.
Principales conclusions
La principale conclusion de ce projet de recherche est qu’il ne suffit pas de suivre une procédure standard générale pour rendre les applications d’IA équitables : l’équité doit toujours d’être négociée en fonction d’un contexte concret. Il convient par conséquent d’impliquer les acteurs concernés, car ce n’est qu’en tenant compte des différentes conceptions de la justice que ce principe pourra être mis en œuvre de manière appropriée lors de la conception d’algorithmes.
Autre condition préalable : les développeurs d’applications d'IA doivent comprendre les dimensions philosophiques et morales impliquées afin de prendre des décisions techniques fondées sur l'éthique. Il est donc nécessaire que l’équité soit intégrée aux programmes d'enseignement de l’informatique en tant que concept interdisciplinaire – et plus uniquement en tant que question d’ordre purement technique.
Importance pour la politique et la pratique
Le projet a permis d’établir un cadre méthodologique novateur qui tient compte des aspects éthiques et techniques : une procédure systématique qui associe philosophie et informatique afin de mettre en œuvre la notion de Fairness-by-Design dès la conception des systèmes décisionnels basés sur l’IA. Cela signifie que les questions d’équité et de justice ne sont pas examinées a posteriori et corrigées si nécessaire, mais intégrées systématiquement dès le début de leur développement. Cette méthodologie permet une nouvelle approche du concept d’équilibre social et offre par ailleurs une base pour la formation d’une nouvelle génération de développeurs. Les premiers programmes de formation, notamment de nouveaux modules consacrés au thème de l’« IA responsable », ont déjà été introduits à la ZHAW.
Un logiciel baptisé FairnessLab a également été développé pour guider les utilisatrices et utilisateurs tout au long de l’analyse éthique et technique. Cet outil en ligne permet de visualiser et d’évaluer les conséquences de différents designs d’applications d’IA. Les entreprises disposent ainsi d’un instrument pour les aider à développer des algorithmes équitables : elles peuvent l’utiliser afin d’analyser leurs propres ensembles de données, d’intégrer des évaluations morales et de rendre visibles les effets des modifications apportées. Sur le plan administratif, ce projet fournit aux autorités des connaissances pratiques sur la manière dont les exigences en matière d’équité algorithmique pourraient être concrétisées – par exemple dans le cadre de l’« AI Act » adopté par l’UE.
Trois messages essentiels
Les managers qui sont responsables de l’utilisation de systèmes décisionnels basés sur l’IA doivent veiller à minimiser les violations des principes d’équité susceptibles d’être commises par des décisions algorithmiques. Ce point s’avère essentiel pour leur acceptation sociale. Il est important que les personnes concernées soient impliquées afin de déterminer quel idéal de justice sociale elles privilégient et quels écarts elles acceptent par rapport à cet idéal.
Les développeuses et développeurs d’applications basées sur l’intelligence artificielle doivent être conscients que les questions d’équité sont complexes, mais que la philosophie peut les aider à mieux appréhender ces notions. S’ils n’acquièrent pas cette compréhension, il ne leur sera pas possible de développer des systèmes d’IA mettant en œuvre des formes appropriées de justice sociale. Ils devront également veiller à ce que l’équité ne soit pas traitée comme une tâche purement technique. Les paramètres d’équité techniquement réalisables devraient être mis en relation avec leur substance morale, et les informaticien·nes devraient orienter leurs choix en privilégiant les exigences éthiques sur les questions techniques. Une technique algorithmique équitable ne devrait pas être mise en œuvre sans que les exigences que pose l’équité dans un contexte d’application spécifique aient été analysées. Et pour que de telles exigences puissent être concrètement prises en considération, des concepts issus des mathématiques, de la théorie de la décision, de la philosophie et des sciences sociales doivent être combinés.
Les sciences informatiques doivent développer de nouveaux programmes en vue d’enseigner l’équité algorithmique. Les standards sur lesquels sont fondés les programmes d’enseignement actuels ne permettent pas de développer des systèmes d’IA socialement équitables. Il convient donc d’aboutir à une compréhension approfondie de cette technologie et des impacts qu’elle exerce en matière d’équité sociale – dont l’évaluation exige de recourir à des concepts de philosophie politique. Il sera également nécessaire de veiller à ce que ces programmes ne traitent pas de l’équité comme d’une tâche purement technique.
Vous trouverez de plus amples renseignements sur la manière dont les chercheuses et chercheurs ont procédé concrètement et d’autres informations de fond sur le site Internet de ce projet du PNR 77:
Un aperçu des autres projets de recherche menés dans le cadre du Programme national de recherche « Transformation numérique » (PNR 77) est disponible sur la page dédiée du :
