Quotidien Fintech, Blocktech, DeFi, Blockchain
              


Mardi 13 Avril 2021

Interview | Intelligence Artificielle : les biais limitent le potentiel des banques


Entretien avec Giovanni Mangani, Responsable solutions IA et engagement client Europe de l’Ouest chez Pegasystems.



Aujourd’hui, la technologie joue un rôle essentiel dans un grand nombre de secteurs, et plus particulièrement celui de la banque, qu’il s'agisse d’automatiser les processus, de gérer les requêtes des clients. Afin de répondre aux besoins de leurs employés et de leurs clients, les banques se sont dotées d’outils technologiques tels que l’intelligence artificielle.
Giovanni Mangani, Responsable solutions IA et engagement client Europe de l’Ouest chez Pegasystems, nous explique pourquoi les biais peuvent limiter les opportunités avec les clients potentiels d’une banque.

Qu’est-ce qu’un biais et comment apparaissent-ils ?

Les organisations financières et bancaires reconnaissent les possibilités offertes par l’intelligence artificielle (IA), que ce soit pour faciliter le travail des employés mais également rendre l’expérience client meilleure. Avec les années pourtant, nous avons tous été témoins de différents épisodes de biais qui ont fait l’actualité (comme le cas de Goldman Sachs et l’Apple Credit Card). Nous parlons de biais dans l’IA quand les résultats fournis par ces modèles ne sont pas neutres ou objectifs.

D’un point de vue humain un biais c’est un préjugé, une opinion qui n'est pas basée sur la raison ou l'expérience réelle. Ainsi, comme les modèles générés par des algorithmes de machine learning exploitent ces biais pour réaliser des prédictions, de mauvais biais peuvent se produire et provoquer des hypothèses parfois dangereuses.

En effet, le propre de l’humain est d’être imparfait et nous pouvons involontairement entraîner des biais susceptibles d’être transmis à la machine. La manière dont nous collectons des données, formons des modèles et appliquons des règles ou une logique lors de la prise de décisions peuvent comporter des lacunes. Ainsi, nous finissons par transmettre un biais. Ces biais sont problématiques car ils conduisent, souvent par inadvertance, à la discrimination de certains groupes de personnes, par rapport à l’âge ou au genre par exemple.

En quoi ceux-ci limitent le potentiel de l’IA dans les banques, voire même peuvent être dangereux ?

Quelle que soit l’entreprise, les biais entraînent des risques importants tels que des infractions de réglementation, des pertes d’opportunités, des baisses de revenus ou encore une perte de confiance de la part de leurs clients. Pour les banques plus spécifiquement, les biais peuvent conduire à une limitation des prêts ou des polices d'assurance ou encore à des risques de fraude bancaire puisque les algorithmes étudient généralement des cas passés, passant donc à côté de nouveaux types de fraude.

Pour donner quelques exemples, en 2017, des agences bancaires de l’agglomération de Lyon ont réalisé un test qui montrait qu’il existait des discriminations notamment liées au genre dans l’accès aux prêts. Ici, il n’est pas nécessairement question de « biais», plutôt de comportements involontaires qui ont entraîné des discriminations. Mais, imaginez que ces banques mettent en place une solution intelligente pour automatiser le processus d’accès aux informations : le résultat aurait sûrement été le même puisque ces solutions auraient été préalablement entraînées par les collaborateurs de ces agences bancaires.

Un autre exemple, un peu plus connu que l’on peut citer est celui de l'Apple Credit Card lancée en 2019 dont je parlais plus tôt. Peu après son lancement, un utilisateur a constaté que sa capacité de crédit était 20 fois supérieure à celle de son épouse malgré un historique bancaire et fiscal commun, ce qui a évidemment posé des questions sur l'existence d’un biais algorithmique. Depuis, il a été démontré qu’aucun biais n'existait. Pourtant cette affaire, il y a deux ans, a fortement entaché la réputation d’Apple et son partenaire financier Goldman Sachs, entraînant même une enquête du département des services financiers de l'État de New York.

Est-il possible pour les entreprises du secteur bancaire de détecter et de supprimer ces biais ?

Oui, il existe de plus en plus de solutions permettant de détecter et supprimer les biais.
En général, il faut considérer une procédure en 2 étapes. Tout d’abord, avant de corriger le biais, il faut en être conscient (c’est ce qui on appelle la détection). Ensuite, une fois que le biais est détecté, la deuxième étape concerne son élimination. Pour cela, il faut comprendre où le biais se trouve (dans les données, l’algorithme, etc.).

Par ailleurs, d'un point de vue plus fonctionnel, il est important de créer des équipes diversifiées constituées de data scientists aux profils différents, permettant de mieux entraîner les algorithmes et ainsi limiter au maximum les biais.

Des erreurs seront toujours commises, et les banques doivent les anticiper. Pour cela, chez Pegasystems, nous avons lancé une solution technologique de détection des biais que nous intégrons dans tous les modèles d'IA. Cette solution, Ethical Bias Check, signale les offres ou messages générés par l’IA qui sont susceptibles d'être discriminatoires. Elle s’appuie sur l’analyse prescriptive et teste les modèles d’IA via des simulations, permettant ainsi de repérer ces comportements et de les corriger.

Ce type de solution est essentiel dans les secteurs réglementés, comme les services financiers et les assurances, où les conséquences peuvent être lourdes. Les entreprises ne doivent pas se contenter de détecter les biais de manière périodique, mais c’est une action qui doit être menée en continu afin d'éliminer de manière proactive les comportements discriminatoires.

Ces dernières années l'IA est devenue puissante et opaque, rendant la détection de biais inhérents plus complexes. Par ailleurs, même si l’IA a un grand potentiel, les banques doivent faire attention à l’utiliser à bon escient et de manière transparente car il faut pouvoir expliquer les décisions des algorithmes aux clients, comme l’impose le RGPD ou encore aux collaborateurs, afin que ceux-ci prennent en main les décisions remontées par l’IA.


Chez Pegasystems, l’IA est au cœur de nos solutions et des conversations. Notre objectif est d’améliorer cette technologie pour qu’elle soit plus responsable, c'est-à-dire, plus empathique, transparente et juste.



Finyear: latest news, derniers articles

Inscription à la newsletter

Flux RSS