> actualités > Comment éviter de transmettre des biais discriminatoires à ses algorithmes ?
Comment éviter de transmettre des biais discriminatoires à ses algorithmes ?

Comment éviter de transmettre des biais discriminatoires à ses algorithmes ?

En 2023, huit entreprises sur dix ont planifié d’investir dans l’apprentissage automatique (machine learning). Ce sous-domaine de l’intelligence artificielle permet de repérer les schémas récurrents dans les données pour guider la prise de décision.

De nombreuses décisions peuvent ainsi être déléguées à des algorithmes : sélection des candidats pour un recrutement, pour un crédit… Mais comment éduquer son algorithme de façon à éviter les biais, et en particulier les biais discriminatoires ? Les expérimentations montrent en effet que l’IA risque d’amplifierles discriminations déjà à l’œuvre. Cela résulte du fait qu’elle s’appuie sur des historiques de sélection pour effectuer son apprentissage – or ces historiques sont souvent biaisés et aboutissent à une sous-représentation de certaines populations.

De façon assez contre-intuitive, une étude sur un algorithme de gestion des crédits suggère que lui faire part des données personnelles sensibles, plutôt que de les masquer lors de l’apprentissage, permet de réduire notablement le risque de discrimination. Cerise sur le gâteau : la profitabilité des crédits accordés par cet algorithme a aussi augmenté de 8 %. Lorsqu'il n'est pas possible d'inclure directement ces données lors de la phase d’apprentissage de l'algorithme, on peut alors appliquer des facteurs de correction pour rééquilibrer les échantillons qu'on lui transmet, par exemple en augmentant la part des populations traditionnellement sous-représentées.


Source : Removing Demographic Data Can Make AI Discrimination Worse, Stephanie Kelley, Anton Ovchinnikov, Adrienne Heinrich, David R. Hardoon, Harvard Business Review, mars 2023.

Essai gratuit

Découvrez des Synthèses Manageris gratuitement et sans engagement !

Essayer

Toutes les publications

Explorer