ARTICLES BIAIS ET ETHIQUES IA

Reconnaissance faciale : pourquoi votre IA se trompe de visage (et comment l’éviter)

Illustration conceptuelle du double regard humain et algorithmique dans la reconnaissance faciale.

Reconnaissance faciale : pourquoi elle se trompe, et pourquoi c’est grave

Imaginez cette scène. Un salarié arrive au travail et son badge facial ne le reconnaît pas. Un client se fait bloquer par un système « automatique de vérification d’identité ». Un candidat à l’embauche est écarté avant même d’être vu par un humain. Le point commun ? Ce n’est pas la personne qui a changé. C’est la machine qui s’est trompée. Le plus inquiétant ? Ces erreurs ne touchent pas tout le monde de la même façon. Dans cet article, je vais expliquer simplement :
    1. Pourquoi la reconnaissance faciale se trompe plus souvent sur certains visages
    1. Pourquoi vos propres réglages et consignes peuvent amplifier le problème
    1. Ce que vous pouvez mettre en place dès maintenant pour éviter le risque éthique, légal et réputationnel

1. D’où viennent ces erreurs ?

Le problème des données d’apprentissage

En 2018, Joy Buolamwini (MIT) et Timnit Gebru ont étudié plusieurs systèmes de reconnaissance faciale du marché. Résultat :
    • Jusqu’à 34,7 % d’erreurs pour identifier des femmes à peau foncée
    • 0,8 % d’erreurs pour identifier des hommes à peau claire
Traduction simple : La machine reconnaît mieux certains visages que d’autres. Elle est plus « fiable » pour hommes + peau claire que pour femmes + peau foncée.
Pourquoi ? Parce qu’elle a été entraînée principalement sur certains types de visages, pas tous. Si votre IA n’a jamais « vu » assez de diversité pendant son entraînement, elle va mal reconnaître ces personnes plus tard. C’est mécanique. Un an plus tard, le NIST (organisme public américain) a confirmé le problème : jusqu’à 100 fois plus d’erreurs selon l’origine ethnique ou le sexe de la personne. Et ces erreurs ont eu des conséquences réelles : plusieurs Américains ont été arrêtés à tort après identification par des logiciels défaillants. Aux États-Unis, des personnes ont été arrêtées à tort parce qu’un logiciel les « reconnaissait » comme suspects. Elles étaient noires, et innocentes. Autrement dit :
Ce n’est pas un bug. C’est un biais systémique. Et ce biais, il faut le corriger avant qu’il ne fasse du tort à quelqu’un.
Première vérité à accepter quand on parle de reconnaissance faciale :
L’IA n’est pas neutre. Elle ne traite pas tout le monde pareil.
Pour une entreprise, ça veut dire deux choses :
    • Risque humain : discrimination réelle sur des personnes réelles
    • Risque business : mauvaise presse, plainte, question de conformité

2. Le deuxième problème est moins connu : ce que VOUS demandez à la machine

On pense souvent que « l’IA décide seule ». En réalité, elle fait ce qu’on lui dit de faire. Et là, deux cas existent.

Cas 1 : Les systèmes classiques (contrôle d’accès, sécurité, pointage)

Ces systèmes fonctionnent par réglages. Vous choisissez par exemple :
    • À partir de quel niveau de certitude le système dit « oui c’est bien la même personne »
    • Combien de fausses alertes vous acceptez
    • Dans quelles zones du visage regarder en priorité (nez, yeux, mâchoire…)
Le piège : Si vous réglez le système pour qu’il soit « très strict » (ne rien laisser passer), vous augmentez le risque d’erreur sur certaines personnes. Exemple concret :
    • Vous mettez un seuil très haut pour « éviter la fraude »
    • Résultat : certaines personnes doivent scanner leur visage 3 fois pour rentrer, et d’autres jamais
    • Ça a l’air d’un détail technique… jusqu’au moment où quelqu’un dit « curieusement, ce sont toujours les mêmes qu’on refoule »
Ce n’est pas un détail RH. C’est un signal de discrimination. Et vous en êtes responsables, parce que c’est vous qui avez choisi le réglage. Des grands acteurs du secteur (comme Microsoft via la documentation Azure Face API, 2024) disent clairement : avant de déployer, testez les réglages dans VOTRE contexte réel, avec VOS utilisateurs, pas juste sur le PowerPoint du fournisseur. Autrement dit : pas d’auto-pilote.

Cas 2 : Les nouveaux systèmes « IA avancée » qui comprennent le langage

On a maintenant des systèmes capables d’analyser des images à partir d’une consigne écrite, par exemple :
    • « Décris ce que tu vois sur cette vidéo. »
    • « Repère les comportements suspects dans cette vidéo. »
Ces deux phrases n’ont pas du tout le même effet. Dans la première, on demande une description. Dans la deuxième, on demande déjà un jugement moral : « qui a l’air suspect ? » La deuxième formulation est dangereuse, parce qu’elle donne à la machine le droit d’accuser. Et surtout : « suspect » n’a pas la même signification selon le contexte, la culture, le corps, le vêtement, la couleur de peau. Il pousse la machine à chercher des signes de danger — souvent sur la base de stéréotypes. Et cela se traduit par des erreurs très concrètes : certaines personnes seront plus souvent “signalées” que d’autres. Des travaux de recherche ont montré que le simple fait de poser la question de manière différente change le résultat du système — et donc, qui est signalé comme « problème ». Autrement dit : ce qu’on dit à la machine influence ce qu’elle voit.
Donc là aussi, c’est important :
Le biais ne vient pas seulement de la machine. Il vient aussi de la façon dont VOUS posez la question à la machine.
Et ça, très peu d’organisations le maîtrisent aujourd’hui.

3. Effet domino : comment un mauvais réglage devient une injustice

Quand on réunit tout ça, on obtient un scénario très simple :
    1. La technologie reconnaît mieux certains visages que d’autres
    1. Vous la configurez (ou lui parlez) d’une manière qui accentue la suspicion
    1. On prend une décision concrète basée là-dessus
Et c’est là que ça devient dangereux :
    • Refuser l’accès à une personne au travail
    • une personne bloquée à la frontière,
    • Surveiller « particulièrement » certains clients dans un magasin
    • Faire intervenir la sécurité
    • ou pire, une arrestation abusive.
Ce ne sont pas des “erreurs techniques”. Ce sont des décisions qui touchent des vies, et juridiquement, l’entreprise qui déploie ces systèmes est responsable. Pas le logiciel.

4. « Est-ce que c’est légal ? »

C’est la question que tout dirigeant finit par poser. Réponse courte : ça dépend comment vous l’utilisez. L’Union européenne a adopté l’AI Act en 2024. C’est la première grande loi sur l’IA. Ce qu’elle dit, en résumé :
    • Certaines pratiques sont interdites, par exemple créer des bases géantes de visages en aspirant les photos des gens sans leur consentement
    • L’usage de la reconnaissance faciale dans l’espace public est très limité et doit passer par des conditions strictes
    • Certains usages (par exemple pour identifier quelqu’un après un incident) sont considérés « à haut risque » : ils doivent être surveillés, audités, validés, et surtout supervisés par des humains

Un cas concret en France : les sas Parafe dans les aéroports

Depuis 2009, la France installe dans ses aéroports des sas Parafe (“passage automatisé rapide aux frontières extérieures”). Ces bornes utilisent la reconnaissance faciale pour accélérer le contrôle des passeports biométriques. Si vous êtes déjà passé par Roissy, Orly, Lyon ou Bordeaux, vous avez peut-être vu ces sas automatiques avec reconnaissance faciale. Vous scannez votre passeport, vous regardez la caméra, et vous passez en 10-15 secondes au lieu d’attendre à la file classique. Depuis 2018, le dispositif PARAFE a bien évolué : en août 2025, il est officiellement décrit comme “combiné à une technologie biométrique d’authentification basée sur la reconnaissance faciale.

Ce qui fonctionne plutôt bien

Type d’usage acceptable :
    • C’est de l’authentification 1:1 : le système vérifie que vous êtes bien la personne du passeport, il ne cherche pas « qui vous êtes » dans une grande base de données
    • Consentement volontaire : vous pouvez choisir la file classique si vous préférez
    • Pas de stockage : les données ne sont utilisées que pendant votre passage, puis effacées
    • Transparence relative : le site Service-Public.fr explique comment ça marche et quelles bases de données sont interrogées (fichier des personnes recherchées, etc.)
Résultat : Plus de 100 sas installés à Roissy et Orly depuis 2018, avec un gain de temps réel pour les passagers éligibles (majeurs, passeport biométrique, certaines nationalités).
En théorie, tout va bien :
    • passage plus rapide,
    • plus de contact physique,
    • moins de files d’attente.
Selon le baromètre du Groupe ADP en novembre 2023, à Roissy-Charles-de-Gaulle, près de 88 % des passagers internationaux ont attendu moins de 10 minutes au contrôle frontalier. Cela montre que la fluidité s’est améliorée. Ces chiffres ne disent pas tout sur l’équité de traitement ou les écarts selon les profils. Dès lors, même pour un dispositif aussi “avancé” que PARAFE, le risque de biais ou d’erreur reste réel. Cela renforce le fait que la technologie seule ne suffit pas : les réglages, les procédures, l’instruction des consignes, doivent aussi être analysés.

Attention aux angles morts

Premier problème : l’opacité sur l’équité Nulle part on ne trouve publiquement :
    • Les taux d’échec selon les profils (âge, genre, couleur de peau)
    • Les tests d’équité réalisés avant déploiement
    • Ce qu’on fait des personnes systématiquement refusées par le système
On sait (MIT, NIST) que la reconnaissance faciale performe différemment selon les groupes. Parafe a-t-il ces biais ? Personne ne le dit. C’est un angle mort. Deuxième problème : la logique commerciale cachée En 2018, Gemalto (fournisseur des sas) expliquait très clairement l’intérêt économique :
« Toutes les études convergent sur ce point : la courbe de stress du voyageur s’effondre une fois les formalités effectuées. Le panier moyen est directement proportionnel au temps disponible avant l’embarquement. »
Traduction simple : On veut que vous passiez vite la frontière… pour que vous ayez plus de temps pour acheter en duty-free. ADP a investi 10 millions d’euros dans ces sas. Pas uniquement pour améliorer le service public. Aussi pour optimiser vos dépenses commerciales. Ce n’est pas illégal. Mais ça pose une question : la technologie sert-elle d’abord le voyageur ou le chiffre d’affaires de l’aéroport ? Troisième problème : l’extension progressive du périmètre Ce qui a commencé en 2009 comme un test limité est devenu :
    • 2017-2018 : Passage aux empreintes digitales → reconnaissance faciale
    • 2019 : Ouverture aux mineurs de 12 à 18 ans
    • 2020 : Tests pour l’embarquement avec reconnaissance faciale
    • Objectif ADP : « passage à l’ère du biométrique sur tout le parcours passager d’ici 2024-2025 »
Le risque : Ce qui est acceptable aux frontières (contrôle obligatoire de toute façon) peut progressivement devenir la normalisation de la biométrie partout dans l’aéroport. Et demain, ailleurs.

Ce que ça nous apprend

Parafe n’est pas le pire usage de la reconnaissance faciale. C’est même plutôt bien fait comparé à d’autres systèmes. Mais il illustre trois risques classiques :
    1. L’effet de normalisation : « Si ça marche aux frontières, pourquoi pas partout ? »
    1. L’opacité sur l’équité : On ne teste pas publiquement les biais
    1. La logique commerciale : La tech au service du retail, pas seulement du service public
Et surtout : Même un système « bien fait » peut poser problème si on ne surveille pas :
    • son extension à d’autres usages,
    • ses angles morts techniques (les biais),
    • les vraies raisons de son déploiement.
C’est exactement pour ça qu’il faut des garde-fous avant le déploiement, pas après.

5. Que devez-vous mettre en place si vous utilisez (ou envisagez) ce genre d’outils ?

1. Mesurez les écarts de traitement

Avant le déploiement, testez le système sur des personnes réelles et différentes (peaux, âges, genres), pas seulement sur « l’équipe projet ». Regardez :
    • Qui est reconnu du premier coup ?
    • Qui doit réessayer ?
    • Qui est signalé « à risque » plus souvent ?
Ce n’est pas de la curiosité. C’est du devoir de soin. Il existe des outils gratuits (AI Fairness 360 d’IBM, Aequitas…) qui servent uniquement à ça : détecter si votre système traite certains groupes moins bien que d’autres.

2. Décidez noir sur blanc ce que la machine a le droit de faire… et ce qu’elle n’a PAS le droit de faire

Par exemple : « Le système peut aider à vérifier l’accès au bâtiment. » « Le système NE PEUT PAS déclencher une alerte sécurité sans validation humaine. » « Le système NE PEUT PAS être utilisé pour dire qui a l’air ‘suspect’. » Ça doit être écrit. Sinon ça finit toujours par déraper, un jour ou l’autre.

3. Documentez vos consignes

Notez noir sur blanc :
    • Comment vous posez la question au système
    • Quels réglages vous avez choisis (les seuils)
    • Pourquoi vous les avez choisis
    • Qui valide
Si vous n’avez pas ça, vous n’êtes pas prêt en cas d’audit interne, de contrôle juridique ou de crise médiatique.

4. Formez les gens qui utilisent l’outil

Pas besoin de les transformer en ingénieurs IA. Mais ils doivent savoir :
    • Dans quels cas la machine peut se tromper
    • Sur qui elle se trompe le plus souvent
    • Qu’on ne prend jamais une décision lourde (refuser l’accès, appeler la sécu, etc.) sans relecture humaine
Aux États-Unis, un rapport public a montré que certaines agences utilisaient déjà ces technologies sans formation du personnel. On voit le résultat.

6. Pourquoi je fais ce travail

Soyons honnêtes. La plupart des organisations qui déploient ces systèmes ne cherchent pas à discriminer. Elles cherchent :
    • à aller plus vite,
    • à réduire la fraude,
    • à sécuriser un accès,
    • à automatiser une partie du tri.
Le problème, c’est qu’elles le font parfois sans mesurer l’impact humain. Même des systèmes relativement bien conçus, comme les sas Parafe dans les aéroports français, ont des angles morts : opacité sur les biais, extension progressive du périmètre, logiques commerciales cachées. Et là, le risque est énorme :
    • Risque juridique (AI Act, plaintes, non-conformité)
    • Risque réputationnel (« votre outil discrimine »)
    • Risque social interne (vos propres équipes n’acceptent plus l’outil)
Mon travail, c’est de vous éviter ça.

Concrètement, je vous aide à :

    • Clarifier les usages et les limites de votre outil d’IA
→ Identifier ensemble ce que la technologie peut réellement faire, ce qu’elle ne doit pas faire, et dans quels cas une décision humaine reste indispensable. (Ex. : différencier “analyse” et “jugement”, éviter la confusion entre aide à la décision et automatisation totale.)
    • Réécrire des consignes plus claires et plus neutres
→ Transformer des instructions à risque — du type : “repère les comportements suspects” — en formulations descriptives et non discriminantes. (Ex. : “observe les interactions dans un espace donné”) L’objectif : réduire les malentendus, améliorer la transparence et la confiance dans l’outil.
    • Identifier les biais et les risques humains dans les usages
→ Observer comment un réglage, un mot ou un scénario peuvent créer une inégalité de traitement ou renforcer un stéréotype. (Ex. : systèmes d’accès, reconnaissance d’images, outils RH automatisés.)
    • Introduire des garde-fous humains simples
→ Définir des points de validation où un humain reprend la main avant qu’une décision n’affecte une personne. (Ex. : validation manuelle avant un refus d’accès, double lecture d’un score automatique.)
    • Préparer vos équipes à parler d’éthique de façon concrète
→ Expliquer simplement comment et pourquoi certains choix de conception ont un impact éthique, social ou réglementaire. (Objectif : être capable de répondre sereinement à une question client, média ou régulateur.) C’est ce que je développe sur Prompt & Pulse : une IA qui sert les humains, pas l’inverse. Si vous utilisez déjà la reconnaissance faciale, ou si vous envisagez de l’introduire, parlons-en avant que ça devienne un problème. 👉 Discutons de votre projet

FAQ

Est-ce que la reconnaissance faciale est illégale en Europe ? Non. Elle n’est pas totalement interdite. Mais certains usages sont déjà bloqués (par exemple créer des bases géantes de visages sans autorisation). D’autres usages sont considérés « à haut risque ». Ils exigent des tests, des garde-fous humains, et une conformité légale sérieuse. Pourquoi on dit qu’il y a du « biais » ? Parce qu’on a mesuré que ces systèmes se trompent beaucoup plus souvent sur certaines personnes (par exemple les femmes noires) que sur d’autres (par exemple les hommes blancs). Ces erreurs ont déjà mené à des arrestations injustes. Est-ce qu’on peut corriger ça complètement ? Pas à 100 %. Mais on peut réduire fortement le risque en testant le système sur des gens réels et différents, en formant les équipes, et en gardant une validation humaine. Dire « la machine a dit donc c’est vrai », ça, ce n’est plus défendable.

Sources

Recherche scientifique
    • Buolamwini & Gebru (2018) — « Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification » (MIT Media Lab)
    • NIST (2019) — Face Recognition Vendor Test (FRVT), rapports démographiques
    • BiasICL (2025) — Étude sur les biais contextuels des modèles vision-langage

Documentation technique

    • Université de Chicago (DSSG)Aequitas

Réglementation

Rapports et enquêtes

Cas d’usage français


Cet article est une cocréation entre intelligence humaine et intelligence artificielle, puis révisé humainement pour garantir la clarté, le respect des personnes, et l’exactitude des sources.