Cathy O’Neil, mathématicienne et auteure de « Weapons of Math Destruction » (Algorithmes : La bombe à retardement), traite le problème des biais algorithmiques dans son livre.
Elle a également fait un TED Talk intitulé « The Era of Blind Faith in Big Data Must End ».
Son travail est d’autant plus intéressant aujourd’hui en perspective des discussions qui entourent l’intelligence artificielle, depuis notamment l’arrivée de ChatGPT
Résumé du livre
Les algorithmes sont omniprésents : des réseaux sociales aux tests d’admission en passant par les entretiens d’embauche, ils sont utilisés pour déterminer les gagnants et les perdants.
On pourrait penser que cette méthode est juste car elle est basée sur des calculs objectifs plutôt que sur les préjugés d’une tierce personne. Après tout, les algorithmes jugent tout le monde au même niveau, n’est-ce pas ?
Pourtant, les algorithmes sont souvent biaisés et expriment une opinion. Les ingénieurs qui créent ces algorithmes donnent leur propre définition du succès et sont maîtres des données qu’ils choisissent. Et les formules sont souvent cachées.
Dans ses travaux, elle met en garde contre les dangers de l’utilisation des big data pour prendre des décisions importantes pour l’avenir. Elle montre notamment comment ils peuvent renforcer les inégalités pré-existantes.
Elle donne plusieurs exemples pour illustrer ces problèmes. Par exemple, les compagnies d’assurance utilisent des algorithmes pour déterminer le prix des primes. Ces algorithmes peuvent prendre en compte des facteurs tels que les antécédents bancaires des clients. Cependant, cela peut entraîner des préjugés, où les personnes ayant des antécédents financiers moins favorables peuvent être pénalisées, même si leur historique de conduite est excellent.
Un autre exemple est celui des entretiens d’embauche, où les algorithmes sont souvent utilisés pour filtrer les CV. Cependant, si ces algorithmes sont basés sur des données historiques qui ont favorisé un certain groupe de personnes (par exemple les hommes blancs), cela peut renforcer les inégalités et empêcher certains candidats qualifiés d’obtenir un entretien.
En conclusion, dans ce livre Cathy O’Neil souligne que les algorithmes ne sont pas neutres et qu’ils doivent être évalués et audités régulièrement pour détecter les biais et les incohérences.Elle insiste sur le fait que les data scientists ne doivent pas être les seuls à décider de la vérité, car ces décisions ont des implications importantes pour la société dans son ensemble. Il est donc important que ces questions soient discutées et débattues publiquement.
Mon avis
Si vous avez aimé le TED Talk ou si vous souhaitez mieux comprendre les risques liés aux biais algorithmiques, alors vous apprécierez le livre.
Ce que j’ai apprécié : La multitudes d’exemples.
Ce que j’ai moins aimé : Les cas présentés sont centrés sur les États-Unis. Ils permettent soutenir son argumentation et de bien comprendre. Néanmoins, je regrette qu’il n’y ait pas plus d’exemples en dehors des USA.
Laisser un commentaire