Reconnaissance faciale : pourquoi elle se trompe, et pourquoi c'est grave
Publié le 30 mars 2026 • Lecture : 10 minutes • Par Dieneba LESDEMA, fondatrice de Prompt & Pulse
Le problème en une scène
Un salarié arrive au travail et son badge facial ne le reconnaît pas. Un client se fait bloquer par un système "automatique de vérification d'identité". Un candidat à l'embauche est écarté avant même d'être vu par un humain.
Le point commun ? Ce n'est pas la personne qui a changé. C'est la machine qui s'est trompée.
Le plus inquiétant ? Ces erreurs ne touchent pas tout le monde de la même façon. Dans cet article, je vais expliquer :
- Pourquoi la reconnaissance faciale se trompe plus souvent sur certains visages
- Pourquoi vos propres réglages et consignes peuvent amplifier le problème
- Ce que vous pouvez mettre en place dès maintenant pour éviter le risque éthique, légal et réputationnel
1. D'où viennent ces erreurs ?
Le problème des données d'apprentissage
En 2018, Joy Buolamwini (MIT) et Timnit Gebru ont étudié plusieurs systèmes de reconnaissance faciale du marché.
Jusqu'à 34,7 % d'erreurs pour identifier des femmes à peau foncée, contre 0,8 % d'erreurs pour identifier des hommes à peau claire.
— Buolamwini & Gebru, "Gender Shades", MIT Media Lab, 2018
La machine reconnaît mieux certains visages que d'autres — elle est plus "fiable" pour hommes + peau claire que pour femmes + peau foncée. Pourquoi ? Parce qu'elle a été entraînée principalement sur certains types de visages. Si votre IA n'a jamais "vu" assez de diversité pendant son entraînement, elle va mal reconnaître ces personnes plus tard. C'est mécanique.
Un an plus tard, le NIST (organisme public américain) a confirmé le problème : jusqu'à 100 fois plus d'erreurs selon l'origine ethnique ou le sexe de la personne.
Première vérité à accepter : l'IA n'est pas neutre. Elle ne traite pas tout le monde pareil. Pour une entreprise, ça veut dire deux choses : un risque humain réel (discrimination sur des personnes réelles) et un risque business (mauvaise presse, plainte, question de conformité).
2. Le deuxième problème : ce que VOUS demandez à la machine
On pense souvent que "l'IA décide seule". En réalité, elle fait ce qu'on lui dit de faire. Et là, deux cas existent.
Systèmes classiques — contrôle d'accès, sécurité, pointage
Ces systèmes fonctionnent par réglages. Vous choisissez par exemple à partir de quel niveau de certitude le système dit "oui", combien de fausses alertes vous acceptez, dans quelles zones du visage regarder en priorité.
Avant de déployer, testez les réglages dans VOTRE contexte réel, avec VOS utilisateurs — pas juste sur le PowerPoint du fournisseur.
— Microsoft, Documentation Azure Face API, 2024
Nouveaux systèmes "IA avancée" — analyse de langage naturel
On a maintenant des systèmes capables d'analyser des images à partir d'une consigne écrite. Deux exemples :
- "Décris ce que tu vois sur cette vidéo."
- "Repère les comportements suspects dans cette vidéo."
Ces deux phrases n'ont pas du tout le même effet. Dans la première, on demande une description. Dans la deuxième, on demande déjà un jugement moral : "qui a l'air suspect ?"
Autrement dit : ce qu'on dit à la machine influence ce qu'elle voit. Le biais ne vient pas seulement de la machine — il vient aussi de la façon dont vous lui posez la question.
3. Effet domino : du réglage à l'injustice
Quand on réunit tout ça, le scénario devient simple :
- La technologie reconnaît mieux certains visages que d'autres
- Vous la configurez d'une manière qui accentue la suspicion
- On prend une décision concrète basée là-dessus
Et c'est là que ça devient dangereux : refus d'accès au travail, blocage à la frontière, surveillance ciblée dans un magasin, intervention de la sécurité, ou pire — une arrestation abusive.
Ce ne sont pas des "erreurs techniques". Ce sont des décisions qui touchent des vies — et juridiquement, l'entreprise qui déploie ces systèmes est responsable. Pas le logiciel.
4. "Est-ce que c'est légal ?"
C'est la question que tout dirigeant finit par poser. Réponse courte : ça dépend comment vous l'utilisez.
Ce que ça veut dire en pratique : le risque juridique ne vient pas que de l'outil — il vient des réglages que vous avez choisis et des consignes que vous avez rédigées.
5. Cas concret en France : les sas Parafe
Depuis 2009, la France installe dans ses aéroports des sas Parafe ("passage automatisé rapide aux frontières extérieures"). Ces bornes utilisent la reconnaissance faciale pour accélérer le contrôle des passeports biométriques. Si vous êtes passé par Roissy, Orly, Lyon ou Bordeaux, vous les avez vus : scan du passeport, regard caméra, passage en 10-15 secondes.
Ce qui fonctionne
Les angles morts
Opacité sur l'équité. Nulle part on ne trouve publiquement les taux d'échec selon les profils (âge, genre, couleur de peau), les tests d'équité réalisés avant déploiement, ni ce qu'on fait des personnes systématiquement refusées. On sait (MIT, NIST) que la reconnaissance faciale performe différemment selon les groupes. Parafe a-t-il ces biais ? Personne ne le dit.
"La courbe de stress du voyageur s'effondre une fois les formalités effectuées. Le panier moyen est directement proportionnel au temps disponible avant l'embarquement."
— Gemalto (fournisseur des sas), cité dans Challenges, 2018
Traduction : ADP a investi 10 millions d'euros dans ces sas — pas uniquement pour améliorer le service public, mais aussi pour optimiser vos dépenses en duty-free. La technologie sert-elle d'abord le voyageur ou le chiffre d'affaires de l'aéroport ?
Extension progressive. Ce qui a commencé en 2009 comme un test limité est devenu : reconnaissance faciale en 2017-2018, ouverture aux mineurs de 12 à 18 ans en 2019, tests d'embarquement en 2020, et l'objectif ADP était le "tout biométrique sur l'ensemble du parcours passager d'ici 2024-2025".
Même un système "bien fait" pose problème si on ne surveille pas son extension à d'autres usages, ses angles morts techniques, et les vraies raisons de son déploiement. C'est exactement pour ça qu'il faut des garde-fous avant le déploiement — pas après.
Audit Flash — 90 minutes, à distance
📋 Cartographie des biais potentiels dans votre contexte réel
🔍 Revue des formulations et seuils à risque
✅ Recommandations de garde-fous humains concrets
À partir de 450 € HT — déduits si mission
Réserver un créneau →6. Que devez-vous mettre en place ?
📝 4 mesures concrètes avant ou après déploiement
Aucune expertise technique n'est requise. Ce qu'il faut, c'est de la rigueur organisationnelle — et la volonté de poser les bonnes questions avant que ça devienne un problème.
Mesurez les écarts de traitement. Testez le système sur des personnes réelles et différentes (peaux, âges, genres) avant déploiement — pas seulement sur "l'équipe projet". Observez qui est reconnu du premier coup, qui doit réessayer, qui est signalé "à risque". Ce n'est pas de la curiosité. C'est du devoir de soin. Des outils gratuits existent pour ça : AI Fairness 360 (IBM), Aequitas (Univ. Chicago).
Décidez noir sur blanc ce que la machine a le droit de faire — et ce qu'elle n'a PAS le droit de faire. Exemples : "Le système peut aider à vérifier l'accès au bâtiment." / "Le système NE PEUT PAS déclencher une alerte sécurité sans validation humaine." / "Le système NE PEUT PAS être utilisé pour identifier qui a l'air 'suspect'." Si ce n'est pas écrit, ça finit toujours par déraper.
Documentez vos consignes. Notez comment vous posez la question au système, quels réglages vous avez choisis, pourquoi vous les avez choisis, et qui valide. Sans ça, vous n'êtes pas prêt en cas d'audit interne, de contrôle juridique ou de crise médiatique.
Formez les personnes qui utilisent l'outil. Pas besoin de les transformer en ingénieurs IA — mais elles doivent savoir dans quels cas la machine peut se tromper, sur qui elle se trompe le plus souvent, et qu'on ne prend jamais une décision lourde (refus d'accès, appel à la sécurité…) sans relecture humaine. Un rapport du GAO américain (2024) a montré que certaines agences utilisaient ces technologies sans aucune formation du personnel.
7. Pourquoi je fais ce travail
La plupart des organisations qui déploient ces systèmes ne cherchent pas à discriminer. Elles cherchent à aller plus vite, réduire la fraude, sécuriser un accès, automatiser une partie du tri. Le problème, c'est qu'elles le font parfois sans mesurer l'impact humain.
Même des systèmes relativement bien conçus — comme les sas Parafe — ont des angles morts : opacité sur les biais, extension progressive du périmètre, logiques commerciales cachées. Et là, le risque est triple :
- Risque juridique (AI Act, plaintes, non-conformité)
- Risque réputationnel ("votre outil discrimine")
- Risque social interne (vos propres équipes n'acceptent plus l'outil)
Mon travail, c'est de vous éviter ça. Concrètement : clarifier ce que la technologie peut et ne doit pas faire, réécrire des consignes plus neutres, identifier les biais dans vos usages réels, introduire des garde-fous humains simples, et préparer vos équipes à parler d'éthique de façon concrète.
C'est ce que je développe sur Prompt & Pulse : une IA qui sert les humains, pas l'inverse.
Points à retenir
- La reconnaissance faciale produit jusqu'à 100 fois plus d'erreurs selon le groupe — ce n'est pas un bug, c'est un biais systémique documenté.
- Vos réglages et vos consignes amplifient ou réduisent le problème — vous êtes co-responsables du résultat, pas seulement le fournisseur.
- L'AI Act s'applique aux déployeurs autant qu'aux développeurs — les usages à haut risque doivent être audités et supervisés par des humains.
- Même un système "bien fait" (comme Parafe) a des angles morts — l'enjeu, c'est de les identifier avant qu'ils deviennent une crise.
Parlons-en avant que ça devienne un problème. Réserver un créneau →
Questions fréquentes
Est-ce que la reconnaissance faciale est illégale en Europe ?
Non — elle n'est pas totalement interdite. Mais certains usages sont déjà bloqués (créer des bases géantes de visages sans autorisation). D'autres usages sont classés "à haut risque" : ils exigent des tests, des garde-fous humains, et une conformité légale sérieuse. L'AI Act s'applique aux déployeurs, pas seulement aux développeurs.
Pourquoi dit-on qu'il y a du "biais" dans la reconnaissance faciale ?
Parce qu'on a mesuré que ces systèmes se trompent beaucoup plus souvent sur certaines personnes — par exemple les femmes noires — que sur d'autres — par exemple les hommes blancs. Ces erreurs ont déjà mené à des arrestations injustes aux États-Unis. Ce n'est pas de la théorie : c'est documenté par le MIT (2018) et le NIST (2019).
Peut-on corriger complètement ces biais ?
Pas à 100 %. Mais on peut réduire fortement le risque en testant le système sur des gens réels et différents, en formant les équipes, et en gardant une validation humaine sur les décisions à fort impact. Dire "la machine a dit donc c'est vrai" n'est plus défendable — ni éthiquement, ni juridiquement.
Mon entreprise est petite — est-ce que l'AI Act me concerne vraiment ?
L'AI Act ne comporte pas d'exemption selon la taille de l'organisation. Ce qui compte, c'est la classification de risque de votre usage — pas votre chiffre d'affaires. Si vous utilisez la reconnaissance faciale dans un contexte RH, sécuritaire ou commercial, vous devez évaluer votre situation. Le service desk de l'AI Act est un bon point de départ. Cette réponse ne constitue pas un conseil juridique.
Le travail de Prompt & Pulse est-il technique ou accessible sans expertise IT ?
Il est intentionnellement non technique. Le travail porte sur l'éthique IA, la détection de biais, la gouvernance responsable et l'accompagnement pratique — pas sur le choix d'outils, l'architecture système ou le déploiement informatique. Le point de départ, c'est toujours vos usages réels, pas la technologie elle-même.
Conclusion
La reconnaissance faciale n'est pas condamnable en soi. Elle est puissante, rapide, et dans certains contextes bien encadrés, utile. Ce qui est problématique, c'est de la déployer sans mesurer sur qui elle se trompe, sans documenter les réglages, sans former les équipes, et sans définir les limites de ce qu'elle a le droit de décider.
Les organisations qui tireront le meilleur de ces technologies ne seront pas celles qui adoptent le plus vite. Ce seront celles qui restent capables d'expliquer, de contester et d'assumer ce que le système fait concrètement dans leur environnement. Cette capacité-là ne s'achète pas chez le fournisseur. Elle se construit — un réglage examiné, une consigne revue, une limite tracée à la fois.
Sources & références
- Buolamwini & Gebru (2018) — "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification", MIT Media Lab
- NIST (2019) — Face Recognition Vendor Test (FRVT), rapports démographiques
- Berg et al. (2022) — "A Prompt Array Keeps the Bias Away"
- BiasICL (2025) — Étude sur les biais contextuels des modèles vision-langage
- IBM Research (2018) — AI Fairness 360 Toolkit
- Microsoft (2024) — Documentation Azure Face API
- Union Européenne (2024) — Artificial Intelligence Act (Règlement UE 2024/1689)
- US Government Accountability Office — GAO (2024) — Rapport sur l'usage de la reconnaissance faciale par les agences fédérales
- ACLU (2024) — White Paper on Police Departments' Use of AI
- Service-Public.fr (2025) — Documentation officielle du dispositif Parafe
- Groupe ADP — Baromètre passagers, novembre 2023
- Challenges (2018) — "La vérité sur les sas Parafe dans les aéroports"



