ARTICLES BIAIS ET ETHIQUES IA

Reconnaissance faciale : pourquoi votre IA se trompe de visage (et comment l’éviter)

Imaginez cette scène. Un salarié arrive au travail et son badge facial ne le reconnaît pas. Un client se fait bloquer par un système "automatique de vérification d'identité". Un candidat à l'embauche est écarté avant même d'être vu par un humain.
Illustration conceptuelle du double regard humain et algorithmique dans la reconnaissance faciale.
Reconnaissance faciale : pourquoi elle se trompe, et pourquoi c'est grave | Prompt & Pulse

Reconnaissance faciale : pourquoi elle se trompe, et pourquoi c'est grave

Le problème en une scène

Un salarié arrive au travail et son badge facial ne le reconnaît pas. Un client se fait bloquer par un système "automatique de vérification d'identité". Un candidat à l'embauche est écarté avant même d'être vu par un humain.

Le point commun ? Ce n'est pas la personne qui a changé. C'est la machine qui s'est trompée.

Le plus inquiétant ? Ces erreurs ne touchent pas tout le monde de la même façon. Dans cet article, je vais expliquer :

  • Pourquoi la reconnaissance faciale se trompe plus souvent sur certains visages
  • Pourquoi vos propres réglages et consignes peuvent amplifier le problème
  • Ce que vous pouvez mettre en place dès maintenant pour éviter le risque éthique, légal et réputationnel

1. D'où viennent ces erreurs ?

Le problème des données d'apprentissage

En 2018, Joy Buolamwini (MIT) et Timnit Gebru ont étudié plusieurs systèmes de reconnaissance faciale du marché.

Jusqu'à 34,7 % d'erreurs pour identifier des femmes à peau foncée, contre 0,8 % d'erreurs pour identifier des hommes à peau claire.

— Buolamwini & Gebru, "Gender Shades", MIT Media Lab, 2018

La machine reconnaît mieux certains visages que d'autres — elle est plus "fiable" pour hommes + peau claire que pour femmes + peau foncée. Pourquoi ? Parce qu'elle a été entraînée principalement sur certains types de visages. Si votre IA n'a jamais "vu" assez de diversité pendant son entraînement, elle va mal reconnaître ces personnes plus tard. C'est mécanique.

Un an plus tard, le NIST (organisme public américain) a confirmé le problème : jusqu'à 100 fois plus d'erreurs selon l'origine ethnique ou le sexe de la personne.

Conséquences réelles : Aux États-Unis, des personnes ont été arrêtées à tort parce qu'un logiciel les "reconnaissait" comme suspects. Elles étaient noires, et innocentes. Ce n'est pas un bug. C'est un biais systémique.

Première vérité à accepter : l'IA n'est pas neutre. Elle ne traite pas tout le monde pareil. Pour une entreprise, ça veut dire deux choses : un risque humain réel (discrimination sur des personnes réelles) et un risque business (mauvaise presse, plainte, question de conformité).

→  Ces mêmes mécanismes opèrent dans d'autres domaines critiques : les biais dans le recrutement par IA, où les conséquences peuvent être tout aussi graves pour les candidats.

2. Le deuxième problème : ce que VOUS demandez à la machine

On pense souvent que "l'IA décide seule". En réalité, elle fait ce qu'on lui dit de faire. Et là, deux cas existent.

Systèmes classiques — contrôle d'accès, sécurité, pointage

Ces systèmes fonctionnent par réglages. Vous choisissez par exemple à partir de quel niveau de certitude le système dit "oui", combien de fausses alertes vous acceptez, dans quelles zones du visage regarder en priorité.

⚠️ Piège fréquent — le seuil trop strict
Le réglage : Vous mettez un seuil très haut pour "éviter la fraude".
L'effet concret : Certaines personnes doivent scanner leur visage 3 fois pour rentrer, d'autres jamais. Ça a l'air d'un détail technique… jusqu'au moment où quelqu'un dit "curieusement, ce sont toujours les mêmes qu'on refoule".
Ce que ça signifie : Ce n'est pas un détail RH. C'est un signal de discrimination. Et vous en êtes responsables, parce que c'est vous qui avez choisi le réglage.

Avant de déployer, testez les réglages dans VOTRE contexte réel, avec VOS utilisateurs — pas juste sur le PowerPoint du fournisseur.

— Microsoft, Documentation Azure Face API, 2024

Nouveaux systèmes "IA avancée" — analyse de langage naturel

On a maintenant des systèmes capables d'analyser des images à partir d'une consigne écrite. Deux exemples :

  • "Décris ce que tu vois sur cette vidéo."
  • "Repère les comportements suspects dans cette vidéo."

Ces deux phrases n'ont pas du tout le même effet. Dans la première, on demande une description. Dans la deuxième, on demande déjà un jugement moral : "qui a l'air suspect ?"

Formulation dangereuse : "Suspect" n'a pas la même signification selon le contexte, la culture, le corps, le vêtement, la couleur de peau. Ce type de consigne pousse la machine à chercher des signes de danger — souvent sur la base de stéréotypes. Des travaux de recherche ont montré que le simple fait de poser la question différemment change qui est signalé comme "problème".

Autrement dit : ce qu'on dit à la machine influence ce qu'elle voit. Le biais ne vient pas seulement de la machine — il vient aussi de la façon dont vous lui posez la question.

3. Effet domino : du réglage à l'injustice

Quand on réunit tout ça, le scénario devient simple :

  1. La technologie reconnaît mieux certains visages que d'autres
  2. Vous la configurez d'une manière qui accentue la suspicion
  3. On prend une décision concrète basée là-dessus

Et c'est là que ça devient dangereux : refus d'accès au travail, blocage à la frontière, surveillance ciblée dans un magasin, intervention de la sécurité, ou pire — une arrestation abusive.

Point clé — Responsabilité juridique

Ce ne sont pas des "erreurs techniques". Ce sont des décisions qui touchent des vies — et juridiquement, l'entreprise qui déploie ces systèmes est responsable. Pas le logiciel.

→  Ces dérives de gouvernance se retrouvent dans le shadow AI en entreprise : des outils déployés sans cadre clair, où les biais s'accumulent dans l'angle mort des organisations.

C'est la question que tout dirigeant finit par poser. Réponse courte : ça dépend comment vous l'utilisez.

AI Act — ce qui s'applique dès maintenant : L'Union européenne a adopté l'AI Act en 2024. Certaines pratiques sont interdites (créer des bases de visages sans consentement). L'usage dans l'espace public est très limité. Certains usages sont classés "à haut risque" — ils doivent être audités, validés, et supervisés par des humains. L'obligation de littératie IA s'applique depuis le 2 février 2025. Cette note ne constitue pas un conseil juridique.

Ce que ça veut dire en pratique : le risque juridique ne vient pas que de l'outil — il vient des réglages que vous avez choisis et des consignes que vous avez rédigées.

5. Cas concret en France : les sas Parafe

Depuis 2009, la France installe dans ses aéroports des sas Parafe ("passage automatisé rapide aux frontières extérieures"). Ces bornes utilisent la reconnaissance faciale pour accélérer le contrôle des passeports biométriques. Si vous êtes passé par Roissy, Orly, Lyon ou Bordeaux, vous les avez vus : scan du passeport, regard caméra, passage en 10-15 secondes.

Ce qui fonctionne

✅ Usage acceptable — Parafe comme exemple relatif
Authentification 1:1 : Le système vérifie que vous êtes la personne du passeport — il ne cherche pas "qui vous êtes" dans une grande base de données.
Consentement : Vous pouvez choisir la file classique si vous préférez.
Pas de stockage : Les données ne sont utilisées que pendant le passage, puis effacées.
Résultat : Selon le Groupe ADP (nov. 2023), 88 % des passagers internationaux à Roissy-CDG ont attendu moins de 10 minutes au contrôle frontalier.

Les angles morts

Opacité sur l'équité. Nulle part on ne trouve publiquement les taux d'échec selon les profils (âge, genre, couleur de peau), les tests d'équité réalisés avant déploiement, ni ce qu'on fait des personnes systématiquement refusées. On sait (MIT, NIST) que la reconnaissance faciale performe différemment selon les groupes. Parafe a-t-il ces biais ? Personne ne le dit.

"La courbe de stress du voyageur s'effondre une fois les formalités effectuées. Le panier moyen est directement proportionnel au temps disponible avant l'embarquement."

— Gemalto (fournisseur des sas), cité dans Challenges, 2018

Traduction : ADP a investi 10 millions d'euros dans ces sas — pas uniquement pour améliorer le service public, mais aussi pour optimiser vos dépenses en duty-free. La technologie sert-elle d'abord le voyageur ou le chiffre d'affaires de l'aéroport ?

Extension progressive. Ce qui a commencé en 2009 comme un test limité est devenu : reconnaissance faciale en 2017-2018, ouverture aux mineurs de 12 à 18 ans en 2019, tests d'embarquement en 2020, et l'objectif ADP était le "tout biométrique sur l'ensemble du parcours passager d'ici 2024-2025".

Ce que Parafe nous apprend

Même un système "bien fait" pose problème si on ne surveille pas son extension à d'autres usages, ses angles morts techniques, et les vraies raisons de son déploiement. C'est exactement pour ça qu'il faut des garde-fous avant le déploiement — pas après.

Audit Flash — 90 minutes, à distance

📋  Cartographie des biais potentiels dans votre contexte réel

🔍  Revue des formulations et seuils à risque

✅  Recommandations de garde-fous humains concrets

À partir de 450 € HT — déduits si mission

Réserver un créneau →

6. Que devez-vous mettre en place ?

📝 4 mesures concrètes avant ou après déploiement

Aucune expertise technique n'est requise. Ce qu'il faut, c'est de la rigueur organisationnelle — et la volonté de poser les bonnes questions avant que ça devienne un problème.

Mesure 1

Mesurez les écarts de traitement. Testez le système sur des personnes réelles et différentes (peaux, âges, genres) avant déploiement — pas seulement sur "l'équipe projet". Observez qui est reconnu du premier coup, qui doit réessayer, qui est signalé "à risque". Ce n'est pas de la curiosité. C'est du devoir de soin. Des outils gratuits existent pour ça : AI Fairness 360 (IBM), Aequitas (Univ. Chicago).

Mesure 2

Décidez noir sur blanc ce que la machine a le droit de faire — et ce qu'elle n'a PAS le droit de faire. Exemples : "Le système peut aider à vérifier l'accès au bâtiment." / "Le système NE PEUT PAS déclencher une alerte sécurité sans validation humaine." / "Le système NE PEUT PAS être utilisé pour identifier qui a l'air 'suspect'." Si ce n'est pas écrit, ça finit toujours par déraper.

Mesure 3

Documentez vos consignes. Notez comment vous posez la question au système, quels réglages vous avez choisis, pourquoi vous les avez choisis, et qui valide. Sans ça, vous n'êtes pas prêt en cas d'audit interne, de contrôle juridique ou de crise médiatique.

Mesure 4

Formez les personnes qui utilisent l'outil. Pas besoin de les transformer en ingénieurs IA — mais elles doivent savoir dans quels cas la machine peut se tromper, sur qui elle se trompe le plus souvent, et qu'on ne prend jamais une décision lourde (refus d'accès, appel à la sécurité…) sans relecture humaine. Un rapport du GAO américain (2024) a montré que certaines agences utilisaient ces technologies sans aucune formation du personnel.

→  Pour approfondir la responsabilité humaine face aux décisions algorithmiques : pourquoi confondre corrélation et causalité en IA amplifie les biais — et comment reprendre la main sur le jugement.

7. Pourquoi je fais ce travail

La plupart des organisations qui déploient ces systèmes ne cherchent pas à discriminer. Elles cherchent à aller plus vite, réduire la fraude, sécuriser un accès, automatiser une partie du tri. Le problème, c'est qu'elles le font parfois sans mesurer l'impact humain.

Même des systèmes relativement bien conçus — comme les sas Parafe — ont des angles morts : opacité sur les biais, extension progressive du périmètre, logiques commerciales cachées. Et là, le risque est triple :

  • Risque juridique (AI Act, plaintes, non-conformité)
  • Risque réputationnel ("votre outil discrimine")
  • Risque social interne (vos propres équipes n'acceptent plus l'outil)

Mon travail, c'est de vous éviter ça. Concrètement : clarifier ce que la technologie peut et ne doit pas faire, réécrire des consignes plus neutres, identifier les biais dans vos usages réels, introduire des garde-fous humains simples, et préparer vos équipes à parler d'éthique de façon concrète.

C'est ce que je développe sur Prompt & Pulse : une IA qui sert les humains, pas l'inverse.

Points à retenir

  • La reconnaissance faciale produit jusqu'à 100 fois plus d'erreurs selon le groupe — ce n'est pas un bug, c'est un biais systémique documenté.
  • Vos réglages et vos consignes amplifient ou réduisent le problème — vous êtes co-responsables du résultat, pas seulement le fournisseur.
  • L'AI Act s'applique aux déployeurs autant qu'aux développeurs — les usages à haut risque doivent être audités et supervisés par des humains.
  • Même un système "bien fait" (comme Parafe) a des angles morts — l'enjeu, c'est de les identifier avant qu'ils deviennent une crise.
📋  Vous utilisez déjà la reconnaissance faciale, ou vous envisagez de l'introduire ?
Parlons-en avant que ça devienne un problème. Réserver un créneau →

Questions fréquentes

Est-ce que la reconnaissance faciale est illégale en Europe ?

Non — elle n'est pas totalement interdite. Mais certains usages sont déjà bloqués (créer des bases géantes de visages sans autorisation). D'autres usages sont classés "à haut risque" : ils exigent des tests, des garde-fous humains, et une conformité légale sérieuse. L'AI Act s'applique aux déployeurs, pas seulement aux développeurs.

Pourquoi dit-on qu'il y a du "biais" dans la reconnaissance faciale ?

Parce qu'on a mesuré que ces systèmes se trompent beaucoup plus souvent sur certaines personnes — par exemple les femmes noires — que sur d'autres — par exemple les hommes blancs. Ces erreurs ont déjà mené à des arrestations injustes aux États-Unis. Ce n'est pas de la théorie : c'est documenté par le MIT (2018) et le NIST (2019).

Peut-on corriger complètement ces biais ?

Pas à 100 %. Mais on peut réduire fortement le risque en testant le système sur des gens réels et différents, en formant les équipes, et en gardant une validation humaine sur les décisions à fort impact. Dire "la machine a dit donc c'est vrai" n'est plus défendable — ni éthiquement, ni juridiquement.

Mon entreprise est petite — est-ce que l'AI Act me concerne vraiment ?

L'AI Act ne comporte pas d'exemption selon la taille de l'organisation. Ce qui compte, c'est la classification de risque de votre usage — pas votre chiffre d'affaires. Si vous utilisez la reconnaissance faciale dans un contexte RH, sécuritaire ou commercial, vous devez évaluer votre situation. Le service desk de l'AI Act est un bon point de départ. Cette réponse ne constitue pas un conseil juridique.

Le travail de Prompt & Pulse est-il technique ou accessible sans expertise IT ?

Il est intentionnellement non technique. Le travail porte sur l'éthique IA, la détection de biais, la gouvernance responsable et l'accompagnement pratique — pas sur le choix d'outils, l'architecture système ou le déploiement informatique. Le point de départ, c'est toujours vos usages réels, pas la technologie elle-même.

Conclusion

La reconnaissance faciale n'est pas condamnable en soi. Elle est puissante, rapide, et dans certains contextes bien encadrés, utile. Ce qui est problématique, c'est de la déployer sans mesurer sur qui elle se trompe, sans documenter les réglages, sans former les équipes, et sans définir les limites de ce qu'elle a le droit de décider.

Les organisations qui tireront le meilleur de ces technologies ne seront pas celles qui adoptent le plus vite. Ce seront celles qui restent capables d'expliquer, de contester et d'assumer ce que le système fait concrètement dans leur environnement. Cette capacité-là ne s'achète pas chez le fournisseur. Elle se construit — un réglage examiné, une consigne revue, une limite tracée à la fois.

Sources & références

  • Buolamwini & Gebru (2018) — "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification", MIT Media Lab
  • NIST (2019) — Face Recognition Vendor Test (FRVT), rapports démographiques
  • Berg et al. (2022) — "A Prompt Array Keeps the Bias Away"
  • BiasICL (2025) — Étude sur les biais contextuels des modèles vision-langage
  • IBM Research (2018) — AI Fairness 360 Toolkit
  • Microsoft (2024) — Documentation Azure Face API
  • Union Européenne (2024) — Artificial Intelligence Act (Règlement UE 2024/1689)
  • US Government Accountability Office — GAO (2024) — Rapport sur l'usage de la reconnaissance faciale par les agences fédérales
  • ACLU (2024) — White Paper on Police Departments' Use of AI
  • Service-Public.fr (2025) — Documentation officielle du dispositif Parafe
  • Groupe ADP — Baromètre passagers, novembre 2023
  • Challenges (2018) — "La vérité sur les sas Parafe dans les aéroports"
Note de transparence : Article coécrit avec assistance IA (Claude, Anthropic). Le cadrage éditorial, la sélection des sources, la validation des angles et la révision finale sont entièrement humains. Toutes les assertions factuelles renvoient à des sources publiées et vérifiables. La section réglementaire reflète la compréhension de l'auteure à la date de publication et ne constitue pas un conseil juridique.