De l’outil au membre d’équipe – comment l’IA influence le travail des équipes médicales
Comment l’IA influence-t-elle les tâches, les rôles et le travail des équipes médicales ? Un projet du PNR 77 montre qu’elle peut aider à réduire les risques, parfaire la collaboration et augmenter la satisfaction professionnelle.
En plus de modifier notre manière de travailler, l’intelligence artificielle (IA) exerce aussi une influence sur la façon de collaborer en équipe. Or, comment introduire l’IA au sein d’une équipe sans saper les forces des êtres humains ni entraîner des contraintes supplémentaires ? Une équipe de recherche dirigée par Nadine Bienefeld (ETH Zurich) a mené six études rassemblant plus de 1100 personnes issues du secteur de la santé – soignant·es, médecins, spécialistes en science des données, développeur·ses d’IA et étudiant·es en médecine –, afin d’examiner les conditions permettant d’intégrer judicieusement l’IA comme membre d’équipe. L’investigation s’est concentrée sur les unités de soins intensifs afin de mieux comprendre les opportunités et les risques d’une collaboration entre l’être humain et l’IA dans un environnement particulièrement complexe.
Principales conclusions
L’intégration de l’IA influence non seulement la collaboration entre l’être humain et la machine, mais modifie également les interactions entre les personnes. L’intégration de connaissances par l’IA peut, par exemple, encourager les membres de l’équipe à développer de nouvelles hypothèses et à exprimer leurs doutes. À l’inverse, l’échange d’informations avec des collègues humains a eu tendance à freiner l’émergence de nouvelles idées, probablement en raison de facteurs sociaux, tels que la pensée de groupe ou les hiérarchies existantes. L’IA peut donc agir comme une sorte de catalyseur social qui brise les schémas de pensée établis.
Tout aussi révélatrice : l’énorme différence dans la perception de l’« explicabilité » entre les développeur·ses d’IA et les professionnel·les de santé. Les développeur·ses sont partis du principe que les utilisatrices et utilisateurs voulaient comprendre le fonctionnement du modèle (interprétabilité du modèle), alors qu’en réalité les médecins avaient seulement besoin que les résultats de l’IA s’inscrivent de façon crédible dans le contexte clinique des patient·es (plausibilité clinique). Les détails techniques ne leur étaient d’aucune utilité dans leur pratique clinique quotidienne.
De plus, l’étude a permis de réfuter l’idée répandue selon laquelle les clinicien·nes souhaitent moins d’automatisation par crainte de perdre le contrôle. Bien au contraire : pour les tâches routinières, telles que la surveillance des données de patient·es, les professionnel·les de santé ont même préconisé un degré d’automatisation plus élevé que les expert·es en mégadonnées. En effet, ils considèrent comme inefficace et peu pratique une solution semi-automatisée nécessitant un contrôle humain constant.
Importance pour la sphère politique et la pratique
Réussir l’introduction de systèmes d’automatisation et d’aide à la décision basés sur l’IA dans des secteurs à haut risque, tels que la médecine, passe impérativement par la prise en compte de leur impact sur la dynamique d’équipe, la gestion et l’organisation du travail. Concrètement, cela nécessite de nouvelles approches en matière de gestion ainsi que des directives décisionnelles adaptées. Il convient également d’investir dans la formation initiale et continue : en formant les professionnel·les d’aujourd’hui et de demain non seulement à l’utilisation de la technologie, mais surtout à une nouvelle forme d’« intelligence d’équipe ». Cela inclut la capacité à examiner d’un œil critique les informations générées par l’IA, à les contextualiser à l’aide de ses propres connaissances et à prendre part activement à la conception de nouvelles dynamiques d’équipe. Préparer les cadres et le personnel à travailler au sein d’équipes humain-IA est la condition sine qua non pour que cette forme de collaboration puisse déployer son potentiel de création de valeur.
Trois messages essentiels
- L’IA est potentiellement susceptible d’améliorer la satisfaction, la motivation et le bien-être des professionnel·les de santé et d’atténuer la pénurie de personnel qualifié. Toutefois, cela ne deviendra réalité que si de nouvelles tâches, rôles et pratiques collaboratives sont développés en intégrant les forces et faiblesses respectives des êtres humains et de l’IA. Ne pas tenir compte des formes optimales que peut revêtir la collaboration personne-machine pourrait entraîner des risques notables en matière de sécurité et de performance. Il conviendra notamment de faire preuve de vigilance face à l’excès de confiance, la complaisance, la conscience situationnelle limitée et la perte de savoir-faire. Des directives pratiques devront dès lors définir des règles claires en matière de responsabilité et de contrôle, en particulier dans les situations où l’IA s’avère certes très performante, mais n’est pas complètement interprétable et donc pas vraiment contrôlable.
- L’IA modifie la façon dont les équipes communiquent et résolvent les problèmes : la collaboration personne-machine peut ainsi influencer non seulement la manière dont les membres de l’équipe interagissent avec l’IA, mais aussi les uns avec les autres. Intégrer l’IA comme «sparring partner» neutre dans la base de connaissances de l’équipe favorise l’émergence de nouvelles idées et les échanges entre les membres. Un système d’IA peut donc contribuer à lever les hiérarchies rigides et les dynamiques d’équipe négatives, telles que le biais de confirmation et la pensée de groupe, et encourager les membres de l’équipe à envisager des alternatives et à exprimer plus librement leurs réticences.
- Instaurer une collaboration efficace entre l’être humain et l’IA requiert de nouvelles compétences qui dépassent largement les aspects technologiques. Les programmes de formation destinés au personnel médical et infirmier et la formation professionnelle continue en milieu hospitalier doivent se focaliser sur le développement de la capacité à collaborer avec une IA comme nouvelle compétence clé. La manière de calibrer correctement la confiance dans l’IA (ni trop ni pas assez), de communiquer avec elle et au sein de l’équipe et de prendre des décisions conjointement en sont quelques exemples. Les cadres doivent apprendre à gérer ces nouvelles formes de collaboration personne-machine, notamment en ce qui concerne la perte de connaissances spécialisées. Il ne s’agit plus seulement d’utiliser un outil technique, mais d’orchestrer une équipe mixte composée d’êtres humains et de machines intelligentes.
Retrouvez la méthodologie utilisée par l’équipe de recherche et d’autres informations sur la page web du PNR 77 consacrée à ce projet :
Vous pouvez consulter les autres projets de recherche menés dans le cadre du Programme national de recherche « Transformation numérique » (PNR 77) à partir de cette page :