26 mai 2025
IA et crédit, comment éviter que les machines ne contribuent à reproduire nos biais sociaux ?
Cet article est tiré de The Conversation, un média en ligne d'information et d'analyse de l'actualité indépendant qui publie des articles grand public écrits par des scientifiques et des universitaires, dont l'Université Laval est partenaire.

L’intégration des IA dans le secteur bancaire ne doit pas aggraver les inégalités sociales.
— Shutterstock
Un texte signé par Norrin Halilem, professeur à la Faculté des sciences de l'administration.
L’intelligence artificielle (IA) a bouleversé de nombreux domaines ces dernières années, dont le secteur bancaire. Cet article explore les côtés positifs, mais aussi néfastes de son implantation, avec une emphase sur la question de la discrimination algorithmique dans l’octroi de crédit.
Au Canada et plus largement dans le monde, l’implantation des IA au sein des grandes banques a permis d’accroître la productivité tout en offrant une plus grande personnalisation des services.
À l’échelle mondiale, selon le IEEE Global Survey, l’adoption de solutions basées sur les IA devrait doubler dès 2025 pour atteindre 80 % des institutions financières. Certaines banques sont plus avancées, à l’instar de BMO Groupe financier, qui a créé des postes spécifiques pour superviser l’intégration de l’IA dans ses services numériques, dans une logique de compétitivité. Ainsi, grâce aux IA, les profits de l’industrie bancaire mondiale pourraient dépasser 2 billions de dollars américains d’ici 2028, représentant une croissance de près de 9 % entre 2024 et 2028.
Professeur titulaire à l’université Laval en gestion des connaissances et de l’innovation et vulgarisateur scientifique, j’ai coécrit le présent article avec Kandet oumar Bah, auteur d’un projet de recherche sur la discrimination algorithmique, et Aziza Halilem, experte en gouvernance et cyber risque à l’Autorité de contrôle prudentiel et de résolution, en France.
Comment les IA améliorent-elles la performance des banques ?
L’intégration des IA dans le secteur bancaire a déjà permis d’optimiser significativement des processus financiers, avec un gain de 25 à 40 % de l’efficacité opérationnelle. Combinés aux capacités grandissantes du big data, soit à la collecte massive de données, les IA offrent un volet analytique puissant, qui peut déjà réduire les marges d’erreur de systèmes financiers de 18 à 30 %.
Ils permettent aussi de surveiller en temps réel des millions de transactions, d’y détecter des comportements suspects et même de bloquer préventivement certaines opérations frauduleuses. C’est notamment une des utilisations mises en œuvre par la banque J.P. Morgan. De plus, des plates-formes comme FICO, spécialisées en analyse décisionnelle basée sur les IA, aident les établissements financiers à exploiter une diversité de données sur leurs clients, affinant leurs décisions de crédit via des modèles prédictifs avancés.
Plusieurs banques dans le monde s’appuient sur des algorithmes de notation automatisés capables d’examiner, en quelques secondes, de nombreux paramètres : revenu, historique de crédit ou ratios d’endettement. Sur le marché du crédit, ces outils améliorent significativement le traitement des demandes, en particulier pour des cas « standards », comme ceux présentant des garanties d’emprunt explicites.
Néanmoins, qu’en est-il des autres cas ?
Les IA dans l’octroi de crédit, systématiser les injustices ?
Comme le soulignent Tambari Nuka et Amos Ogunola, deux chercheurs étatsuniens, l’illusion selon laquelle les algorithmes produiraient des prédictions justes et objectives constitue un risque majeur pour le secteur bancaire. Recensant les écrits scientifiques, ces auteurs mettent en garde contre la tentation de déléguer aveuglément à des systèmes automatisés l’évaluation de comportements humains complexes. Plusieurs banques centrales, dont celle du Canada, ont aussi exprimé de fortes réserves, alertant sur les risques opérationnels liés à une dépendance excessive aux IA, notamment pour les prédictions et les évaluations de solvabilité.
Bien que les algorithmes soient techniquement neutres, ils peuvent amplifier des inégalités existantes lorsque les données d’entrainement sont entachées de biais historiques, notamment hérités de discriminations systémiques à l’encontre de certains groupes. Ces biais ne résultent pas seulement de variables explicites comme le genre ou l’origine ethnique, mais aussi de corrélations indirectes avec des facteurs comme le lieu de résidence ou le type d’emploi.

Par exemple, des systèmes de notations peuvent attribuer des plafonds de crédit plus bas à des femmes, et ce, même dans des situations financières équivalentes aux hommes. L’analyse de variables comme le code postal et l’historique professionnel peut aussi conduire à l’exclusion de membres de groupes marginalisés, tels que des individus racisés, des travailleurs aux revenus irréguliers ou encore des immigrants récents.
Virginia Eubanks, professeure aux États-Unis et experte en justice sociale, illustre bien ce phénomène : elle montre comment des individus résidant dans des quartiers historiquement désavantagés ou ayant des parcours professionnels atypiques sont pénalisés par des décisions financières automatisées fondées sur des données biaisées.
Dès lors une question cruciale s’impose : comment garantir que l’automatisation des décisions financières contribue à réduire les disparités d’accès aux services bancaires ?
Pallier les erreurs par une finance inclusive
Face aux risques de discrimination, plusieurs pistes sont explorées dans la littérature scientifique. Nuka et Ogunola suggèrent par exemple une approche d’inclusion financière. Celle-ci consiste à améliorer continuellement les modèles statistiques en identifiant et corrigeant des biais dans les données d’entrainement, et ce, afin de réduire les écarts de traitement entre groupes sociaux.
Au-delà des solutions techniques, des cadres réglementaires ont récemment été mis en place pour garantir la transparence et l’équité des algorithmes dans des secteurs sensibles, comme la finance. La Loi canadienne sur l’intelligence artificielle et les données, ou encore le Règlement européen sur l’intelligence artificielle en sont des exemples. Ce dernier, adopté en 2024 et mis en œuvre progressivement, impose notamment des exigences strictes pour les systèmes d’IA à haut risque, tels que ceux utilisés pour l’octroi de crédit.
L’article 13 prévoit des obligations de transparence visant à assurer l’auditabilité des systèmes et la compréhension de leurs décisions par toutes les parties prenantes. L’objectif est d’éviter toute discrimination algorithmique et de garantir un usage éthique et équitable. Les régulateurs financiers ont aussi un rôle crucial : veiller au respect des règles de concurrence loyale et garantir des pratiques prudentes et transparentes, dans l’intérêt de la stabilité financière et de la protection des clients.
Cependant, des pressions exercées par certains lobbies technologiques et financiers pour freiner l’adoption de normes strictes font peser un risque important : l’absence de régulation dans certains pays et les difficultés d’application dans d’autres pourraient favoriser l’opacité, au détriment des citoyens les plus vulnérables…
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
