L’équité dès la conception : notre engagement en faveur d’une IA éthique en biométrie

Vincent Bouatou, CTO d’IDEMIA Public Security, explique l’importance de l’équité dans l’IA

Temps de lecture : 4 minutes

Chez IDEMIA Public Security, l’équité dans l’IA n’est pas une aspiration, mais une responsabilité. Dans cet article, Vincent Bouatou, Chief Technology Officer, explique comment nos plus de 35 années d’expertise en biométrie garantissent des algorithmes impartiaux, précis et fiables dans le monde entier, soutenant une intelligence artificielle éthique pour les systèmes de sécurité publique et d’identité.

L’équité en IA : plus qu’une ambition future, une responsabilité

Chez IDEMIA Public Security, nous ne considérons pas l’équité en matière d’intelligence artificielle (IA) comme une ambition future, mais une responsabilité d’aujourd’hui. En tant que directeur de la technologie, j’ai pu constater le rôle essentiel que joue une technologie éthique et impartiale dans l’instauration d’une relation de confiance avec nos partenaires, nos institutions et les personnes qu’elles servent.

Alors que l’IA est de plus en plus intégrée dans les systèmes de sécurité publique et d’identité, un principe s’impose comme essentiel : l’équité. Nous pensons que l’IA devrait fonctionner aussi bien pour tout le monde, quel que soit le contexte démographique. L’équité dans l’IA consiste à s’assurer que les biais pouvant découler du processus de développement des algorithmes ne se répercutent pas sur la prise de décision dans le monde réel.

Construire des algorithmes inclusifs pour toutes les populations

Nous avons passé plus de 35 ans à développer des systèmes biométriques qui sont aujourd’hui utilisés dans le monde entier. Dès le départ, nous savions que la diversité serait au cœur de notre travail : diversité d’âge, de sexe, d’origine ethnique, et même de mode de vie et de conditions de travail. Par exemple, les empreintes digitales des travailleurs manuels peuvent présenter davantage d’usure, d’entailles ou de cicatrices que celles des employés de bureau. Ces différences ne sont pas seulement théoriques : elles affectent la qualité des données biométriques et les performances des systèmes d’IA. C’est pourquoi nous avons toujours tout mis en œuvre pour garantir que nos algorithmes soient équitables pour tous.

Recherche et développement : éliminer les biais à chaque étape

Cet engagement se ressent particulièrement dans notre technologie de reconnaissance faciale. Nous voulons nous assurer que la probabilité d’une erreur n’est pas plus élevée pour un groupe démographique donné. Nos solutions étant déployées à l’échelle mondiale, nos algorithmes doivent fonctionner avec la même précision et cohérence pour toutes les populations.

Nous avons investi massivement dans la recherche et le développement afin d’éliminer les biais à chaque étape du développement. L’équité et la précision sont les deux faces d’une même pièce, l’une ne pouvant exister sans l’autre. Ce principe guide nos équipes depuis des décennies, et façonne la manière dont nous concevons, testons et évaluons nos systèmes.

En 2020, nos efforts ont été reconnus à leur juste valeur. Le National Institute of Standards and Technology (NIST), qui évalue les algorithmes biométriques dans le monde entier, a annoncé qu’il intégrerait désormais l’équité dans ses critères d’évaluation. Pour nous, ce fut un tournant majeur : cette annonce confirmait que nous avions déjà une longueur d’avance et étions prêts à répondre à l’intérêt croissant du secteur pour l’IA éthique.

Une technologie éthique et fiable pour un avenir responsable

Aujourd’hui, nous sommes fiers d’être l’un des seuls fournisseurs de solutions biométriques dont les algorithmes allient aussi bien équité que performance. Cette double réussite définit notre leadership dans le secteur. Et ce n’est pas seulement une question de performance, mais de confiance : nos clients, nos partenaires et nos utilisateurs finaux savent qu’ils peuvent compter sur nous pour leur fournir une technologie à la fois puissante et fondée sur des principes.

Cette même confiance aura de plus en plus d’importance à mesure que des réglementations telles que la loi européenne sur l’IA entreront en vigueur. Parmi ses exigences, la loi exige une stricte atténuation des biais dans les systèmes d’IA à haut risque. Notre approche de longue date nous permettait déjà de répondre à la plupart de ces exigences.

Pour nous, l’équité n’est pas une option, elle est au cœur de tout ce que nous faisons. Alors que le monde évolue vers une IA plus responsable, nous continuerons de montrer l’exemple.

#IDEMIAexpertise | Biometrics | Only You Can Be You
#IDEMIAexpertise | Biometrics | Only You Can Be You
IDEMIA

Inscrivez-vous à notre newsletter

Recevez nos principales actualités et suivez les tendances de nos marchés en vous abonnant à notre newsletter.

En cliquant sur le bouton «Je m'inscris», vous confirmez que vous acceptez les conditions d'utilisation et la politique de confidentialité d'IDEMIA et que vous consentez au traitement de vos données personnelles tel que décrit.

Votre adresse e-mail sera utilisée exclusivement par IDEMIA pour vous envoyer des newsletters. Conformément à la loi, vous disposez de droits d'accès, de rectification et de suppression de vos données personnelles, ainsi que d'opposition à leur traitement, en écrivant à dpo@idemia.com.