Les régulateurs britanniques mettent en garde les banques contre l’utilisation de l’IA dans les demandes de prêt


Les régulateurs financiers britanniques ont averti les banques qui cherchent à utiliser l’intelligence artificielle pour approuver les demandes de prêt qu’elles ne peuvent déployer la technologie que si elles peuvent prouver qu’elle n’aggravera pas la discrimination à l’encontre des minorités, qui ont déjà du mal à emprunter.

Les chiens de garde font de plus en plus pression sur les plus grandes banques britanniques au sujet des garanties qu’elles prévoient de mettre en place concernant l’utilisation de l’IA, selon plusieurs personnes proches des pourparlers.

Les grandes banques explorent des moyens d’automatiser davantage leurs prêts, y compris l’utilisation de l’IA et d’algorithmes plus avancés, pour décider à qui prêter en fonction des données historiques détenues sur différents types d’emprunteurs, qui peuvent être regroupés par catégories telles que les codes postaux et profils d’emploi.

Les banques pensent que l’utilisation de techniques d’apprentissage automatique pour prendre des décisions de prêt pourrait réduire la discrimination à l’encontre des groupes ethniques qui ont toujours eu du mal à accéder à des prêts à des prix raisonnables. Ils pensent que l’IA ne porterait pas les mêmes jugements subjectifs et injustes que les humains.

« Les banques aimeraient bien se débarrasser du décideur humain parce qu’elles perçoivent, je pense correctement, que c’est la source potentielle de partialité », a déclaré Simon Gleeson, avocat chez Clifford Chance.

Mais les régulateurs et les groupes de campagne craignent que l’utilisation de l’IA dans les modèles de crédit n’ait l’effet inverse. « Si quelqu’un fait partie d’un groupe qui est déjà victime de discrimination, il aura souvent tendance à vivre dans un code postal où il y a d’autres personnes (similaires). . . mais vivre dans ce code postal ne vous rend pas plus ou moins susceptible de faire défaut sur votre prêt », a déclaré Sara Williams, de Debt Camel, un blog de finances personnelles.

« Plus vous diffusez les mégadonnées, plus vous recherchez des données qui ne sont pas directement pertinentes pour la personne. Il y a un vrai risque de perpétuer les stéréotypes ici.

James Daley, fondateur du groupe de défense Fairer Finance, a déclaré qu’il y avait déjà des inquiétudes quant à la façon dont les données étaient utilisées pour tarifer à la fois le crédit et l’assurance, car elles « isolent les plus vulnérables » en offrant le même prix élevé que ces types de clients ont traditionnellement reçu.

Cela conduit à un cycle où les membres des groupes qui ont traditionnellement eu des défauts de paiement élevés se voient facturer des taux d’intérêt plus élevés, ce qui les rend plus susceptibles de faire défaut. « L’idée d’ajouter l’apprentissage automatique à cela rend tout le cocktail encore pire », a déclaré Daley.

L’année dernière, les présidents de deux comités du Congrès américain ont exhorté les régulateurs à veiller à ce que les plus grands prêteurs du pays mettent en œuvre des garanties pour garantir à l’IA un meilleur accès au crédit pour les familles à revenu faible et moyen et les personnes de couleur, plutôt que d’amplifier les préjugés historiques.

Dans leur communication sur la réglementation de la finance numérique, les régulateurs financiers de l’UE ont appelé la semaine dernière les législateurs à envisager « d’analyser plus avant l’utilisation des données dans les modèles d’IA/apprentissage automatique et les biais potentiels conduisant à la discrimination et à l’exclusion ».

Les banques du Royaume-Uni ont été blanchies du racisme dans les décisions de prêt par un examen gouvernemental il y a près de dix ans, mais il a toujours été constaté qu’elles prêtaient moins aux minorités ethniques.

Gleeson a déclaré que les conversations récentes avec les régulateurs se sont concentrées sur des questions telles que les garanties intégrées pour empêcher les prêts dirigés par l’IA de facturer des taux plus élevés aux minorités qui ont généralement payé plus dans le passé.

Une table ronde organisée en octobre par la Banque d’Angleterre et la Financial Conduct Authority a discuté d’un cadre éthique et d’une formation autour de l’IA, y compris une certaine surveillance humaine et une exigence selon laquelle les banques peuvent clairement expliquer les décisions prises.

Un cadre d’une grande banque britannique a déclaré que tout le monde dans l’industrie « réfléchissait et travaillait » sur la manière de déployer l’IA de manière éthique. D’autres ont déclaré que leurs banques en étaient à un stade précoce d’exploration de la manière de l’utiliser.

UK Finance, le groupe de pression, a déclaré qu’il reconnaissait « le besoin essentiel de maintenir la confiance du public » alors que l’industrie explorait l’utilisation de l’IA et reconnaissait que « les préjugés injustes potentiels » étaient un problème. La Prudential Regulation Authority et la FCA ont refusé de commenter.

Laisser un commentaire