Comment l’intelligence artificielle discrimine les personnes... et comment l’éviter

L’intelligence artificielle progresse partout dans le monde, mais cette tendance est freinée par des doutes quant à l’équité des algorithmes qui pensent à notre place. La recherche tente de corriger le cap.

De plus en plus de décisions sont prises par des algorithmes, par exemple pour la présélection de candidatures ou dans des procédures juridiques. L’intelligence artificielle se trouve ainsi employée dans des domaines délicats: les programmes informatiques intelligents doivent prendre des décisions non seulement correctes du point de vue matériel, mais aussi équitables et éthiques. Or on constate en pratique que ce n’est pas toujours le cas et que le résultat est sujet à caution : ainsi, un algorithme du groupe de vente en ligne Amazon ne retenait que les candidatures d’hommes, tandis qu’une IA utilisée par des tribunaux américains imposait des peines plus lourdes aux prévenus noirs qu’aux blancs. Le risque est de ce fait grand que l’IA reproduise les injustices et les discriminations existantes.

Mené dans le cadre du PNR 77, un projet interdisciplinaire associant les universités de Zurich et Saint-Gall et l’ETH Zurich cherche à savoir comment éviter ces distorsions. Professeur assistant à l’Université de Saint-Gall et responsable du projet, Maël Schnegg explique comment les scientifiques procèdent : « Il faut programmer l’algorithme de sorte qu’il fasse bien ce qu’il est censé faire, par exemple procéder à une présélection, mais en fixant dans le même temps certaines conditions pour le résultat. » Le but est de rendre l’intelligence artificielle plus humaine, autrement dit de lui faire prendre en compte non seulement les éléments objectifs, mais aussi les aspects éthiques. La grande question est celle de la place de cet élément humain et des facteurs permettant d’influencer le programme.

Pour y répondre, le projet de recherche adopte une approche interdisciplinaire, réunissant quatre domaines de travail : l’équipe de Stefan Feuerriegl à l’EZH Zurich a développé, au début du projet, un algorithme capable de suivre des règles d’équité. Les autres groupes de recherche utilisent cet algorithme comme sujet d’expériences : l’objectif de l’équipe de Gerhard Schwabe à l’Université de Zurich est de déterminer comment l’interaction entre l’humain et la machine peut se dérouler pour accroître la confiance dans le fonctionnement de l’intelligence artificielle. Les travaux de l’équipe de Klaus Möller à l’Université de Saint-Gall visent à identifier les mécanismes qu’il faudrait mettre en place au niveau de l’entreprise pour exercer le contrôle nécessaire sur l’AI. Enfin, à l’Université de Zurich, Noëlle Vokinger et ses collaborateurs cherchent à définir à quoi pourrait ressembler un cadre juridique pour une IA équitable. Ces travaux permettront en définitive d’établir des lignes directrices destinées à l’économie et à la politique pour garantir le respect de l’éthique.

« L’intelligence artificielle, c’est formidable quand on s’en sert correctement », souligne Maël Schnegg, qui pointe le grand potentiel de ces technologies : quand il existera des mécanismes garantissant l’équité des algorithmes et évitant les conflits éthiques, ce potentiel pourra être encore mieux exploité.