La recherche souhaite remédier à la partialité des algorithmes

L’intelligence artificielle s’avère souvent raciste ou sexiste. Le chercheur du PNR 77 Christoph Heitz explique pourquoi et comment il souhaite y remédier.

Le succès d’une entreprise mondiale comme Amazon dépend des développeuses et développeurs talentueux qui travaillent pour elle. Mais trouver les bonnes personnes parmi des milliers de candidatures requiert du temps et des efforts. En 2014, l’entreprise a donc développé une intelligence artificielle (IA) afin d’automatiser la présélection des candidat·es. Au cours des années qui ont suivi, il s’est avéré que l’algorithme affichait des penchants plutôt sexistes. Les candidat·es appropriés identifiés par l’IA étaient en effet plutôt des hommes que des femmes.

Les algorithmes sexistes ou racistes – en bref, empreints de préjugés – font régulièrement les gros titres. Comment développer les intelligences artificielles afin qu’elles soient non seulement efficaces, mais aussi équitables ? Tel est le thème de recherche auquel se consacre le projet du PNR 77 intitulé « Une intelligence artificielle équitable et socialement acceptable ». Son responsable, Christoph Heitz de la Haute école des sciences appliquées de Zurich, est récemment intervenu sur ce sujet devant la Société des sciences naturelles de Winterthour.

Spécialiste des données, Christoph Heitz a tout d’abord expliqué en quoi les algorithmes manquaient d’équité, en s’appuyant sur un exemple. Lors de l’achat d’une maison, la banque décide généralement si elle octroie ou non un crédit à un acquéreur. Si elles se fondaient auparavant sur des règles simples, de telles décisions sont désormais de plus en plus souvent basées sur des algorithmes qui analysent les données fournies. Leur apprentissage est alimenté par des données historiques dans lesquelles ils reconnaissent des schémas qui leur permettent d’évaluer si une personne sera, ou non, en mesure de rembourser ses dettes. Le point à retenir, c’est que ces algorithmes sont optimisés en vue d’une utilité précise : rapporter à la banque le plus d’argent possible.

Le fait que l’algorithme puisse dans certains cas prendre des décisions erronées, c’est-à-dire, inéquitables pour l’acquéreuse ou l’acquéreur potentiel, n’entre ici pas en ligne de compte. « Les algorithmes de décisions sont optimisés pour être utilisés fréquemment », explique Christoph Heitz. « Il ne s’agit jamais de savoir s’ils prennent à chaque fois la bonne décision, mais de s’assurer d’un bénéfice global accru en utilisation régulière. »

Selon le chercheur, cette optimisation de l’utilité sans prise en considération explicite du critère d’équité constitue l’une des raisons expliquant l’injustice des algorithmes. Les données servant à l’apprentissage d’une intelligence artificielle sont un autre facteur d’injustice. Dans le cas d’une banque, les données alimentant le système s’appuient sur les décisions précédemment prises par des individus qui n’étaient pas non plus dénués de préjugés. En ce qui concerne les algorithmes de candidature d’Amazon, le fait que l’entreprise ait par le passé plutôt privilégié les candidats de sexe masculin n’est donc pas étranger aux biais observés par la suite.

Lors de son allocution, Christoph Heitz a également mis en exergue que l’équité ne constituait pas une notion absolue. « Ce qui fait l’équité varie en fonction des situations et ces critères sont en règle générale soumis à controverse. » L’équité pourrait par exemple signifier que tous – ou toutes celles et ceux qui le méritent – disposent des mêmes chances, par exemple après avoir acquis des compétences spécifiques. « Déterminer ce qui est équitable dans un contexte donné est un processus de négociation social. »

Compte tenu des faits exposés, le projet de recherche est de nature interdisciplinaire et réunit des chercheuses et chercheurs de différents domaines : informatique, éthique et économie. Christoph Heitz est persuadé qu’il est possible d’élaborer des algorithmes équitables, conçus de manière à obtenir un bénéfice maximal sans injustice à la clé.

Le projet a récemment dévoilé de premiers résultats lors de la conférence « Fairness, Accountability, and Transparency in socio-technical systems » (FAccT) qui est la plus importante manifestation internationale consacrée à l’équité des algorithmes. Sur les 82 publications présentées à cette occasion, deux étaient issues du projet. « Nous sommes particulièrement fiers que l’un de nos articles ait remporté le titre de Best student paper award », a souligné Christoph Heitz. Corinna Hertweck, doctorante à la Haute école des sciences appliquées de Zurich (ZHAW) et à l’Université de Zurich, en est l’autrice principale.

Vidéo de la conférence (en allemand)External Link Icon