La formation IAS NIVEAU I arrive bientôt sur l’Académie en ligne de Philodème ! Restez informés et inscrivez-vous à notre newsletter !

Votre panier est vide.

Les algorithmes ont-ils des préjugés ? L’histoire cachée des IA biaisées

  • 11 février 2025
Les Algorithmes ont-ils des préjugés L’histoire cachée des IA biaisées

Je me souviens de cette époque où l’on croyait dur comme fer que l’intelligence artificielle serait notre alliée ultime. Une entité neutre, sans émotion, sans parti pris, qui trancherait les décisions avec une objectivité que nous, pauvres humains, étions incapables d’atteindre. J’étais fascinée par cette promesse d’un monde plus rationnel, où les machines, enfin, nous délivreraient de nos biais inconscients.

Puis, j’ai découvert l’histoire d’Amazon.

Amazon et l’algorithme sexiste

L’histoire aurait pu être une révolution. Un système de recrutement capable de repérer les meilleurs talents sans fatigue, sans influence extérieure, sans discrimination. Plus besoin de RH biaisés, pensait-on. L’algorithme trierait les candidatures et repérerait, parmi des milliers de CV, les plus prometteurs.

Mais il s’est passé quelque chose d’inattendu.

Une femme brillante, diplômée, expérimentée, envoie son CV. L’algorithme le reçoit, l’analyse, puis… l’ignore. Même chose pour la suivante. Et celle d’après.

L’IA d’Amazon avait appris à discriminer les femmes.

Pourquoi ? Parce que son modèle avait été nourri par des années de recrutements passés, et que l’industrie de la tech étant dominée par les hommes, l’algorithme avait conclu que, logiquement, un bon candidat était un homme. Un simple raccourci statistique. Un raccourci qui a écarté des centaines de femmes sans que personne ne s’en rende compte immédiatement.

Amazon a fini par débrancher son IA. Mais combien d’autres entreprises utilisent aujourd’hui des algorithmes biaisés sans même le savoir ?

La police prédictive et le jugement automatisé

J’aurais aimé croire que cette histoire était une exception. Mais non. Les algorithmes biaisés ne se contentent pas de trier des CV : ils jugent aussi des êtres humains. L’histoire qui suit n’est pas sans rappeler une certaine nouvelle de Philip K.Dick… 

Prenons COMPAS, ce logiciel censé prédire les risques de récidive aux États-Unis. Son rôle ? Aider les juges à évaluer la dangerosité d’un prévenu et décider s’il mérite la liberté conditionnelle. Une idée séduisante : la machine trancherait sans a priori, sans préjugés.

Enfin, c’est ce qu’on pensait.

Un jour, deux hommes comparaissent devant un juge. L’un est blanc, l’autre noir. Le premier a déjà un casier chargé, plusieurs infractions graves. Le second, un délit mineur, sa première erreur.

Le verdict de l’algorithme tombe : le jeune homme noir est jugé plus dangereux que l’homme blanc.

Pourquoi ? Parce que COMPAS a été nourri par des décennies de données où les minorités étaient surreprésentées dans les statistiques policières. L’algorithme n’a pas évalué un individu, mais une probabilité : selon son raisonnement froid et mathématique, être noir augmentait le risque de récidive.

Des vies ont été brisées à cause de cette erreur algorithmique.


L’IA qui ne vous reconnaît pas

Il y a quelques années, un ami m’a raconté une anecdote qui l’avait laissé perplexe. Il venait de s’acheter un tout nouveau smartphone équipé d’une reconnaissance faciale dernier cri. Il était excité à l’idée de tester cette technologie futuriste.

Il allume son téléphone, configure son visage et… rien. L’appareil refuse de le reconnaître.

Il essaie encore. Change d’angle. De luminosité. Il commence à s’énerver. Son colocataire, un homme blanc, tente l’expérience. Le téléphone se déverrouille immédiatement.

Ce n’était pas un bug. Ce n’était pas une coïncidence.

Des études ont prouvé que les algorithmes de reconnaissance faciale développés par IBM, Microsoft et Amazon étaient quasi parfaits pour reconnaître des hommes blancs, mais commettaient jusqu’à 34 % d’erreurs pour les femmes noires.

Pourquoi ? Parce que les bases de données utilisées pour entraîner ces IA étaient principalement constituées de visages blancs et masculins. L’algorithme n’avait jamais vraiment appris à reconnaître les autres.

Ce n’est pas juste un problème technique. Quand une IA de surveillance chinoise est déployée pour traquer spécifiquement une ethnie minoritaire, les Ouïghours, c’est une arme. Une machine programmée pour discriminer, automatiquement.

L’IA et les Ressources Humaines : nos biais, les siens

À l’heure où tout le monde chante les louanges de l’IA, où chaque entreprise rêve d’automatiser son recrutement, sa gestion des talents et ses évaluations, je veux parler de ses biais.

Dans le domaine des ressources humaines, on se félicite des logiciels qui analysent les candidatures, repèrent les meilleurs profils, suggèrent des promotions ou prédisent les départs des employés. On croit que la machine, pure et incorruptible, sera plus juste que nous.

Mais est-ce bien le cas ?

Nos biais, aussi invisibles soient-ils, ont infiltré chaque recoin de ces outils. Un algorithme qui analyse des CV ne fait qu’imiter les décisions passées. Si les recruteurs d’hier privilégiaient certains types de profils, l’IA les reproduira à l’identique. Si une entreprise a historiquement embauché peu de femmes, son IA de recrutement conclura que les hommes sont plus performants.

Et que dire des évaluations de performance automatisées ? Quels critères l’IA utilise-t-elle pour juger un employé ? Est-ce une analyse purement objective, ou bien l’amplification d’un modèle de réussite biaisé ? Une personne extravertie sera-t-elle mieux notée qu’une personne introvertie simplement parce que le management en place valorise l’aisance relationnelle ?


Alors, que faire ?

L’IA n’est pas une entité consciente. Elle ne discrimine pas par choix, elle répète simplement ce qu’on lui a appris. Son biais est notre reflet, mais en pire : il est amplifié, systématisé, gravé dans du code.

Si nous voulons que l’IA nous aide dans les ressources humaines sans nous trahir, nous devons :

  • Auditer ses décisions : détecter les biais dans les résultats qu’elle produit.
  • Diversifier les données : alimenter les modèles avec des profils variés.
  • Garder un contrôle humain : ne jamais laisser une IA trancher seule des décisions cruciales.

Nous voulions une intelligence sans préjugés, et nous avons créé une superstition algorithmique, une IA qui croit aveuglément en ce qu’elle a vu dans le passé.

L’heure est venue de lui apprendre à voir autrement.

Postface : Un regard critique plutôt qu’un aveuglement technologique

J’aurais aimé écrire sur les miracles de l’IA. Sur la manière dont elle révolutionne le monde du travail, optimise la productivité, facilite le recrutement. Mais tout cela, d’autres l’écrivent déjà. À longueur de colonnes et de posts LinkedIn.

Alors j’ai préféré parler de ce que l’on tait.

Les biais de l’IA ne sont pas une fatalité. Ils sont le miroir de nos erreurs, et nous avons encore le pouvoir de les corriger. Mais pour cela, il faut d’abord les voir.

La prochaine fois qu’un logiciel prendra une décision qui impacte votre carrière, votre embauche, votre progression, posez-vous cette question :

Est-ce vraiment l’IA qui me juge, ou bien les fantômes du passé qui parlent à travers elle ?

Partager :

Laisser Une Réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous aimerez peut-être

Le pouvoir agit sur nous. Ce n’est pas une théorie abstraite. C’est un fait d’expérience. Quiconque en a exercé un...
L’école récompense-t-elle vraiment le mérite ? Une plongée critique dans le mythe méritocratique entre égalité des chances et reproduction sociale.
« Sois toi-même. » Rarement une phrase aura été autant reprise, autant vendue. Elle se veut libératrice, mais elle enferme. Elle promet...
Le turnover, on en parle partout. Dans les grands groupes comme dans les PME, dans les start-ups comme dans l’industrie....