L’IA équitable comme facteur de succès : intégrer l’équité pour instaurer la confiance

© Arnab Dey / iStock

L’IA peut soutenir la prise de décision, mais n’est acceptée que si elle est perçue comme équitable. La recherche montre aux entreprises comment développer des systèmes d’IA équitables pour promouvoir confiance et acceptation.

L’intelligence artificielle peut soutenir les entreprises dans la prise de décision. Il n’en reste pas moins que de nombreuses entreprises hésitent encore à l’utiliser concrètement ainsi que le révèle le projet mené sous l’égide du professeur Klaus Möller (Université de Saint-Gall). L’IA tend en effet à reproduire les biais présentés par les données, ce qui est susceptible de conduire à des projections à caractère discriminatoire.

Et c’est précisément ce problème que l’équipe de recherche s’est attachée à résoudre. Pour ce faire, elle a analysé les mécanismes qui promeuvent et développent la confiance dans l’intelligence artificielle et élaboré un guide à l’intention des entreprises afin d’optimiser le développement de systèmes algorithmiques équitables.

Principal résultat

Les conclusions auxquelles les chercheuses et chercheurs sont parvenus montrent qu’il est important que l’intelligence artificielle intègre une dimension d’équité pour que les êtres humains soient disposés à l’utiliser. L’équité constitue par conséquent un élément essentiel pour instaurer la confiance. Si une garantie minimale ne leur est pas offerte en termes d’équité, les utilisatrices et utilisateurs tendent à s’en détourner.

Accroître l’équité des systèmes algorithmiques permettra par conséquent de promouvoir l’utilisation et le déploiement de l’intelligence artificielle.

Signification pour la politique et la pratique

Selon l’équipe de recherche, la politique devrait miser sur une approche éthique plutôt que sur une limitation de l’intelligence artificielle.

Mais comment les entreprises et les organisations doivent-elles s’y prendre pour implémenter une IA équitable ? Dans le cadre du projet, les chercheuses et chercheurs ont développé différents outils et directives destinés aux membres du management ou de l’administration afin de les aider à utiliser les technologies numériques pour prendre des décisions automatisées (vous trouverez les liens vers les documents correspondants plus loin dans le texte).

Conseil concret du chef de projet Klaus Möller :

Définissez des limites et des objectifs avant de tester la mise en œuvre de l’IA.

Prof. Klaus Möller

L’équité de l’intelligence artificielle ne dépend cependant pas uniquement des aspects techniques. Il est tout aussi important de prendre en compte le facteur humain, car la mise en œuvre de l’IA en entreprise sera vouée à l’échec si les groupes d’intérêts concernés (p. ex. les collaboratrices et collaborateurs) se sentent menacés dans leur intégrité ou leur sphère privée.

Trois messages principaux

1. Intégrer l’équité à l’IA améliore la perception de l’IA par les parties prenantes.

2. Afin de renforcer la confiance dans l’IA, il convient d’adopter des mesures techniques (IA équitable) et sociétales (gouvernance, régulation, transparence des objectifs).

3. La perception de l’équité par les parties prenantes diffère selon que les décisions sont prises par un être humain ou une IA.

Vous trouverez de plus amples informations sur l’approche méthodologique exacte de l’équipe de recherche et le contexte du projet sur la page Internet Gouvernance et cadre juridique pour la gestion de l’intelligence artificielle du PNR 77.Vous trouverez de plus amples informations sur l’approche méthodologique exacte de l’équipe de recherche et le contexte du projet sur la page Internet Gouvernance et cadre juridique pour la gestion de l’intelligence artificielle du PNR 77.

Vous trouverez un aperçu des différents projets menés dans le cadre du Programme national de recherche consacré à la « Transformation numérique » (PNR 77).