Éviter les biais de l'IA dans l'expérience numérique de nos clients
Les systèmes d'IA peuvent se comporter de façon biaisée par rapport aux utilisateurs finaux, cette tribune vous explique comment réduire ces biais et améliorer les constructions d'IA éthiques.
En quelques décennies, l’intelligence artificielle a pris une place majeure dans notre quotidien. Des centaines de millions de personnes utilisent des services comme ChatGPT pour rédiger des emails ou Midjourney pour créer de nouveaux visuels. L'IA accélère l'avènement d'une nouvelle ère numérique, nous permettant de travailler plus rapidement et plus efficacement, de relever des défis créatifs ou professionnels et de réaliser de nouvelles innovations.
Mais l’usage de l’intelligence artificielle ne s’arrête pas là. L’IA fait maintenant partie intégrante de services critiques au bon fonctionnement de notre société : services d’accord de prêts ou d’accès à des études supérieures, accès aux plateformes de mobilité, et dans un avenir proche, accès aux soins médicaux. La vérification d’identité en ligne, quant à elle, s’est étendue de la création de compte bancaire à de nombreuses cas d’usage sur internet.
Les systèmes d'IA peuvent néanmoins se comporter de façon biaisée par rapport aux utilisateurs finaux. Rien qu'au cours des deux derniers mois, Uber Eats et Google ont découvert à quelle point l'utilisation de l'IA peut menacer la légitimité et la réputation de leurs services en ligne. Pour autant, les humains sont aussi vulnérables aux biais. Ceux-ci peuvent être systémiques, comme le montre le biais dans la reconnaissance des visages - la tendance à mieux reconnaître les membres de son propre groupe ethnique (OGB, ou Own Group Bias) - phénomène maintenant bien documenté [1].
C'est là que réside le défi. Les services en ligne sont devenus la colonne vertébrale de l’économie : 60 % des personnes accèdent davantage aux services en ligne aujourd'hui qu'avant la pandémie. Avec des coûts de traitement moins onéreux et des délais d’exécution plus courts, l’IA se présente comme une solution de choix pour les entreprises dans le traitement d’un volume de clients toujours croissant. Néanmoins, malgré tous les avantages que présente cette solution, il est important de prendre conscience des biais qu’elle présente et de la responsabilité des entreprises à mettre en place les bons garde-fous pour se prémunir de dommages durables tant à leur réputation qu’à l’économie de manière plus globale. Au cœur d'une stratégie de prévention des biais se trouvent trois piliers essentiels - la mesure du biais, la réduction du biais et la recherche d’un progrès constant basé sur une vision pragmatique des choses.
Étape 1 : Identifier et mesurer
La lutte contre le biais commence par la mise en place de processus robustes pour la mesure de celui-ci. Les biais de l’IA sont souvent faibles, cachés dans de vastes montagnes de données et observables seulement après la séparation de plusieurs variables corrélées.
Il est donc crucial pour les entreprises employant l’IA de mettre en place de bonnes pratiques telles que la mesure par intervalle de confiance, l’utilisation de jeux de données de taille et de variété appropriés et l’emploi d’outils statistiques appropriés manipulés par des personnes compétentes.
Ces entreprises doivent également chercher à être le plus transparent possible sur ces biais, par exemple en publiant des rapports publics tels que le “Bias Whitepaper” qu’Onfido a publié en 2022. Ces rapports doivent porter sur des données de production réelles et non sur des données de synthèse ou de test.
Les outils de benchmarking publics tels que les tests de NIST FRVT (Face Recognition Vendor Test) produisent également des analyses de biais qui peuvent être exploitées par ces entreprises pour communiquer sur leur biais et réduire ce biais dans leurs systèmes.
À partir de ces observations, les entreprises peuvent comprendre où les biais sont les plus susceptibles de se produire dans le parcours client et s'atteler à trouver une solution - souvent en entraînant les algorithmes avec des ensembles de données plus complets pour produire des résultats plus équitables. Cette étape pose les bases d'un traitement rigoureux des biais et augmente la valeur de l'algorithme et de son parcours utilisateur.
Etape 2 : Se méfier des variables cachées et des conclusions hâtives
Le biais d’un système d’IA se cache souvent dans de multiples variables corrélées. Prenons l’exemple de la reconnaissance de visage entre la biométrie et la pièce d’identité (“face matching”). Cette étape est clé dans la vérification d’identité de l’utilisateur.
Une première analyse montre que la performance de cette reconnaissance est moins bonne pour les personnes de couleur de peau sombre que pour une personne moyenne. Il est tentant dans ces conditions de conclure que par conception, le système pénalise les personnes à la peau sombre.
En poussant l’analyse plus loin, on observe cependant que la proportion de personnes à peau sombre est plus élevée dans les pays africains que dans le reste du monde. Or, ces pays africains utilisent en moyenne des documents d’identité de qualité inférieure à celle observée dans le reste du monde.
Cette baisse de qualité explique l’intégralité de la mauvaise performance de la reconnaissance faciale. En effet, si l’on mesure la performance de la reconnaissance faciale pour les personnes à peaux sombres en se restreignant aux pays européens qui utilisent des documents de meilleure qualité, on constate que le biais disparaît pratiquement intégralement.
En langage statistique, on dit que les variables “qualité du document” et “pays d’origine” sont confondantes par rapport à la variable “couleur de peau”.
Nous fournissons cet exemple non pas pour convaincre que les algorithmes ne sont pas empreints de biais (ce n’est pas le cas) mais pour insister sur le fait que la mesure des biais est complexe et prône aux conclusions hâtives mais incorrectes.
Il est donc crucial de mener une analyse de biais complète et d’étudier l’ensemble des variables cachées qui peuvent influer sur le biais.
Étape 3 : Concevoir des méthodes d’entraînement rigoureuses
La phase d'entraînement d’un modèle d’IA offre la meilleure opportunité de réduire ses biais. Il est en effet difficile de compenser ce biais par la suite sans faire appel à des méthodes ad-hoc peu robustes.
Les jeux de données utilisés pour l’apprentissage sont le levier principal qui permet d’influer sur l’apprentissage. En corrigeant les déséquilibres des jeux de données, on peut influer significativement sur le comportement du modèle.
Prenons un exemple. Certains services en ligne peuvent être utilisés plus couramment par une personne d’un sexe donné. Si on entraîne un modèle sur un échantillon uniforme des données de production, ce modèle se comportera probablement de façon plus robuste sur le sexe majoritaire, au détriment du sexe minoritaire qui verra le modèle se comporter de façon plus aléatoire.
On peut corriger ce biais en échantillonnant les données de chaque sexe de façon égale. Cela induit probablement une réduction de performance relative pour le sexe majoritaire, mais au bénéfice du sexe minoritaire. Pour peu que le service concerné soit considéré comme critique (par exemple, un service de dossier d’acceptation à des études supérieures), cet équilibrage des données tombe sous le sens.
La vérification d’identité sur internet est souvent associée à des services critiques. Cette vérification faisant souvent appel à la biométrie, il est indispensable de concevoir des méthodes d’entraînement robustes qui réduisent autant que possible les biais sur les variables exposées à la biométrie, notamment : âge, sexe, ethnie, et pays d’origine.
Enfin, la collaboration avec les régulateurs, tels que l'Information Commissioner's Office (ICO) permet de prendre du recul et réfléchir de façon stratégique à la réduction des biais dans les modèles. En 2019, Onfido a travaillé avec l'ICO pour réduire les biais dans son logiciel de reconnaissance faciale, ce qui a conduit Onfido à réduire drastiquement les écarts de performances entre groupes d’âge et d’origine géographique de son système biométrique.
Etape 4 : Adapter la solution au cas d’usage
Il n’existe pas une seule mesure de biais. Dans son glossaire sur l’égalité des modèles, Google identifie au moins trois définitions différentes pour l’égalité, chacune étant valable à sa manière mais conduisant à des comportements du modèle très différents.
Comment choisir, par exemple, entre une parité démographique “forcée” et l’égalité des chances qui prend en compte les variables spécifiques à chaque groupe ?
Il n’y a pas de réponse unique à cette question. Chaque cas d’usage nécessite une réflexion propre au domaine d’emploi. Dans le cas de la vérification d’identité par exemple, Onfido utilise le “taux de rejet normalisé” qui consiste à mesurer le taux de rejet par le système par groupe, et à le comparer à la population globale. Un taux supérieur à 1 correspond à un sur-rejet du groupe alors qu’un taux inférieur à 1 correspond à un sous-rejet du groupe.
Dans un monde idéal, ce taux de rejet normalisé est de 1 pour tous les groupes. En pratique, ce n’est pas le cas pour au moins deux raisons : d’une part, parce que les jeux de données nécessaires pour atteindre cet objectif ne sont pas nécessairement disponibles ; d’autre part, parce que certaines variables confondantes ne sont pas à la main d’Onfido (c’est le cas par exemple de la qualité des documents d’identité évoqués dans l’exemple plus haut).
Le mieux est l’ennemi du bien
Le biais ne peut pas être supprimé intégralement. Dans ce contexte, l’important est de mesurer le biais, de le réduire ce biais en continu et de communiquer ouvertement sur les limitations du système.
La recherche sur les biais est largement ouverte. De nombreuses publications sont disponibles sur le sujet. Les grandes entreprises comme Google et Meta contribuent activement à ce savoir en publiant des articles techniques poussés, mais également des articles et matériels de formation accessibles ainsi que des jeux de données dédiés. En 2023, Meta a publié le Conversational Dataset, un jeu de données dédié à l’analyse des biais dans les modèles. Onfido contribue également à l’effort commun avec des publications open-source et des efforts de recherche significatifs sur le biais.
Tandis que les développeurs spécialistes de l’IA continuent d'innover et que les applications évoluent, les biais continueront de se manifester. Cela ne doit en aucun cas dissuader les organisations de mettre en œuvre ces nouvelles technologies car celles-ci promettent de jouer un rôle déterminant dans l'amélioration de leurs offres numériques.
Si les entreprises ont pris les mesures appropriées pour atténuer l'impact de ces biais, les expériences numériques des clients continueront de s'améliorer. Les clients seront en mesure d'accéder aux bons services, de s'adapter aux nouvelles technologies et d'obtenir le soutien dont ils ont besoin de la part des entreprises avec lesquelles ils souhaitent interagir.
[1] The flip side of the other-race coin: They all look different to me, British Journal of Psychology, Sept 2015
[2] CDAO Launches First DOD AI Bias Bounty Focused on Unknown Risks in LLMs, Janvier 2024