Une chercheuse de la VUB décrypte les systèmes d’IA injustes
Les systèmes d’intelligence artificielle (IA) sont largement utilisés dans divers secteurs de notre société depuis des années. Le plus grand problème que cela pose est de savoir avec certitude comment les algorithmes fonctionnent et si les choix qu’ils font sont équitables. Pour aborder ce problème, la spécialiste de l’IA de la VUB, Mme Carmen Mazijn a mené une étude axée sur la question : « Comment mieux comprendre les systèmes d’IA afin qu’ils n’aient pas un impact négatif sur nos institutions sociales en prenant de mauvaises décisions et en commettant des discriminations ? »
Mme Mazijn a mené quatre années de recherche interdisciplinaire pour son doctorat, rattachée au Data and Analytics Laboratory (laboratoire de données et d’analyse) de la faculté de sciences sociales et à la Solvay Business School, ainsi qu’au groupe de recherche en physique appliquée de la faculté des sciences et de bioingénierie. Elle a commencé à travailler sur les algorithmes de prise de décision : des systèmes d’IA qui appuient les décisions humaines, voire qui remplacent les humains dans la prise de décision. Voici un exemple : dans une procédure de sélection, un modèle d’IA peut faire des choix apparemment égaux entre les sexes, mais lorsque l’on se penche d’un peu plus près sur l’algorithme, on peut remarquer que ces choix sont motivés de manière totalement différente.
« L’algorithme peut parfois prendre des décisions apparemment justes, mais pas toujours pour les bonnes raisons », explique la chercheuse. « Pour savoir avec certitude si un système d’IA est biaisé ou s’il fait des choix effectivement socialement acceptables, il faut casser le système et ses algorithmes. »
Dans le cadre de son doctorat, Carmen Mazijn a mis au point une technique de détection permettant de décrypter ces algorithmes d’IA et de vérifier si le système repose sur une logique acceptable. Elle permet de vérifier si le système peut être appliqué dans le monde réel. L’étude a également mis en lumière le fait que de nombreux systèmes d’IA interagissent et que des boucles de rétroaction peuvent apparaître en raison d’un biais dans l’un ou plusieurs d’entre eux.
« Un service de police peut utiliser l’IA pour déterminer les rues dans lesquelles il faut déployer davantage de patrouilles », explique la chercheuse. « Par conséquent, plus le déploiement de patrouilles est important, plus les infractions constatées sont nombreuses. Lorsque ces données sont réinjectées dans le système d’IA, cela amplifie un biais, déjà existant ou non, et mène à une prophétie autoréalisatrice. »
Le message clé est que les décideurs politiques et les dirigeants (d’entreprise) doivent recourir de façon raisonnée aux systèmes d’IA et réfléchir aux effets à long terme d’un modèle par rapport à l’autre. Afin de rendre les résultats de la recherche plus accessibles à ces décideurs politiques et à leurs collaborateurs, Mme Mazijn a également défini une ligne politique indiquant comment ses connaissances techniques et sociales pourraient être mieux appliquées.
La thèse a été publiée le 5 septembre 2023 sous le titre « Black Box Revelation: Interdisciplinary Perspectives on Bias in AI » et a été supervisée par le professeur Vincent Ginis et le professeur Jan Danckaert
Contacte:
Dr. Carmen Mazijn: +32 475 56 70 09