Corporate Finance, DeFi, Blockchain, Web3 News
Corporate Finance, DeFi, Blockchain News

Interview sur la reconnaissance faciale

Interview de Claire Poirson, avocate associée au cabinet Bersay, en charge du département « Nouvelles Technologies »


Résumé : La reconnaissance faciale attire et fascine autant qu’elle effraie. A l’ère du tout numérique encore plus vrai depuis la pandémie mondiale, elle soulève de véritables choix de société touchant tous les domaines scientifiques, économique, éthiques et sociétaux. Mais sa régulation est à la traine alors qu’il existe sur cette technologie de véritables enjeux de souveraineté numérique et de compétitivité technologique. L’existence de « biais » freine notamment grandement sa régulation.

Qu’est-ce que la reconnaissance faciale (FR) ?

Depuis son invention dans les années 70, cette technologie, protéiforme, désigne avant tout un logiciel capable de reconnaitre une personne grâce aux traits de son visage. Cette technologie biométrique permet ainsi soit d’authentifier soit d’identifier, grâce à des algorithmes, les traits de visages de personnes filmées ou photographiées et de les comparer à des images stockées dans une base de données. A titre d’illustration, l’authentification avec FR permet de déverrouiller son smartphone avec son visage.

L’identification avec RF peut quant à elle utilisée pour retrouver une personne au sein d’un groupe d’individus. Sur ce point, une distinction doit être faite entre l’identification en temps réel, c’est-à-dire lorsqu’une personne est recherchée dans un flux en direct d’une vidéo, de l’identification faite a posteriori, c’est-à-dire lorsque le visage d’une personne est recherché dans une base de données. Cette technique pourrait par exemple être utilisée par les forces de l’ordre, pour identifier un terroriste dans la foule ou retrouver un enfant perdu, voire enlevé.

Cette technologie est-elle 100 % fiable ?

Non pas totalement à ce stade. Issue de l’intelligence artificielle, cette technologie éprouve encore des biais, c’est-à-dire des erreurs. Des études récentes (1) montrent que les algorithmes d'apprentissage automatique peuvent ainsi effectuer des discriminations basées sur des classes telles que la race et le sexe ou la couleur de peau. La reconnaissance faciale est ainsi très efficace pour reconnaitre les hommes blancs. Cependant, pour les femmes et les personnes à peau foncée, la fiabilité est bien plus faible.

Comment expliquez-vous l’existence de ces biais ?

Plusieurs raisons peuvent expliquer cette situation. D’abord, il faut savoir que pour être performants, les algorithmes de reconnaissance faciale vont utiliser le machine learning, c’est-à-dire qu’ils s’entrainent à partir d’une base de données. Or ces bases de données ne sont pas représentatives de la population. On parle alors de « biais statistiques » : Très clairement les données d’hommes blancs y sont prédominantes.

Par conséquent, l’algorithme sera beaucoup plus efficace pour reconnaitre le visage d’un homme blanc que celui d’une femme ayant la peau foncée. Il faut aussi savoir que les algorithmes de reconnaissance faciale sont majoritairement conçus par des hommes et cela a visiblement un impact sur le fonctionnement de l’algorithme. Il s’agit là de « biais cognitifs ».

Pensez-vous qu’on peut lutter contre ces biais ?

Oui, très certainement ! Il existe de nombreuses solutions, il faut continuer à éprouver la technologie.
D’abord, pour pallier aux biais cognitifs, il faudrait plus de diversité au sein des ingénieurs, soit plus de femmes et de personnes issues dit des « minorités ». De manière générale, il faudrait plus de diversité dans le milieu de la Tech. La sous-représentation des femmes dans ce milieu est problématique pour la société, mais visiblement elle a aussi un impact sur la fiabilité des nouvelles technologies. Il faut donc commencer à travailler dès maintenant pour résoudre ce problème, notamment en incitant les jeunes femmes à aller plus vers les filières scientifiques.

Il existe aussi des solutions plus techniques pour lutter contre les biais statistiques. L’idée est de s’assurer que l’algorithme et la base de données n’est pas biaisée ab initio. Concrètement, il faudrait vérifier que la logique de l’algorithme n’est pas discriminatoire, faire des tests et en cas de détection de problèmes, travailler pour corriger les biais. En parallèle, il est aussi important de vérifier la qualité de la base de données, afin de corriger les éventuels déséquilibres. Actuellement, des chercheurs travaillent sur un projet pour pouvoir générer des visages de synthèse afin de créer des bases de données non biaisées.
Ce travail est clairement amorcé en France tant par le politique et les professionnels. Il est aussi grand temps de réguler l’usage de la technologie RF en France. En l’absence de régulation réelle, éprouver et améliorer la technologie (corriger notamment ses biais) deviendra en effet difficile... A défaut, la RF sera toujours un serpent qui se mord la queue.

(1) La principale étude sur le sujet est celle de Joy Buolamwini (du MIT Media Lab) et Timnit Gebru (de Microsoft Research). http://proceedings.mlr.press/v81/buolamwini18a.html

Mercredi 3 Novembre 2021




OFFRES D'EMPLOI


OFFRES DE STAGES


NOMINATIONS


DERNIERES ACTUALITES


POPULAIRES