Méfiez-vous des inconnues connues lorsque la finance rencontre l’IA


Le dilemme de Collingridge sonne comme le titre d’un mystère de Sherlock Holmes. C’est, en fait, l’une des meilleures explications de la difficulté de contrôler les technologies à risque. Essentiellement, il s’agit du déséquilibre entre une information imparfaite et un pouvoir bien établi.

« Quand le changement est facile, on ne peut pas en prévoir la nécessité ; lorsque le besoin de changement est évident, le changement est devenu coûteux, difficile et chronophage », a écrit l’universitaire David Collingridge dans son livre Les Contrôle social de la technologie.

Comment agir face à des inconnus connus ? Ce dilemme se pose aujourd’hui aux régulateurs alors qu’ils tentent d’évaluer l’impact de l’intelligence artificielle dans le secteur financier. Comme l’indiquent clairement deux rapports récents de la Banque des règlements internationaux et de l’OCDE, nous avons maintenant atteint un tournant critique. Alors que les avantages de l’IA sont évidents, en termes d’efficacité accrue et d’amélioration du service, les risques sont souvent obscurs.

Dans un article précédent publié au Massachusetts Institute of Technology, Gary Gensler a averti que l’adoption généralisée de modèles d’intelligence artificielle d’apprentissage en profondeur pourrait même augmenter la fragilité du système financier. C’est un bon travail que Gensler préside maintenant la Securities and Exchange Commission des États-Unis et est en mesure de répondre aux préoccupations qu’il a précédemment soulevées.

Les opinions ne manquent pas sur les principes qui devraient régir l’IA. Selon AlgorithmWatch, une organisation à but non lucratif basée à Berlin, au moins 173 ensembles de principes d’IA ont été publiés dans le monde. Il est difficile de ne pas être d’accord avec les intentions louables contenues dans ces lignes directrices, promettant équité, responsabilité et transparence. Mais le défi consiste à traduire des principes nobles dans la pratique quotidienne étant donné la complexité, l’ubiquité et l’opacité de tant de cas d’utilisation de l’IA.

Les systèmes de prise de décision automatisés approuvent les hypothèques et les prêts à la consommation et attribuent des cotes de crédit. Les systèmes de traitement du langage naturel effectuent une analyse des sentiments sur les déclarations de revenus des entreprises et rédigent des conseils d’investissement personnalisés pour les investisseurs de détail. Les compagnies d’assurance utilisent des systèmes de reconnaissance d’images pour évaluer le coût des réparations automobiles.

Bien que l’utilisation de l’IA dans ces cas puisse affecter les droits – et la richesse – des individus et des clients, ils ne posent pas de risque systémique. Bon nombre de ces préoccupations sont couvertes par la législation à venir, y compris les règles de l’UE en matière d’IA. Ces initiatives législatives obligent judicieusement toute organisation déployant un système d’IA à utiliser des données appropriées et exemptes de biais, à s’assurer que ses résultats sont alignés sur ses objectifs, à expliquer son fonctionnement et à aider à déterminer la responsabilité en cas de problème.

La question la plus insaisissable concerne l’utilisation de systèmes de trading alimentés par l’IA, qui pourraient déstabiliser les marchés financiers. Il existe des risques de troupeau, de jeu ou de comportement collusoire si les systèmes sont tous formés sur les mêmes données et les mêmes types d’algorithmes, explique Sarah Gadd, responsable des solutions de données et d’IA au Credit Suisse.

« Vous devez surveiller ces choses de très près – ou ne pas les utiliser », dit-elle. «Vous devez avoir le bon coupe-circuit pour éteindre les choses en quelques millisecondes et avoir des personnes sur lesquelles vous pouvez vous appuyer. Vous ne pouvez pas remplacer l’intelligence humaine par l’intelligence artificielle.

Mais d’autres notent que les crashs éclair se sont produits bien avant que l’IA ne soit utilisée sur les marchés financiers. La question est de savoir si les systèmes d’IA les aggravent. Les systèmes d’IA n’ont rien de magique, juste une technique statistique, explique Ewan Kirk, fondateur de Cantab Capital Partners, un fonds d’investissement qui utilise des algorithmes de trading. « La seule chose que les IA sont douées pour trouver, ce sont des effets incroyablement subtils qui impliquent une énorme quantité de données et ne sont probablement pas de nature systémique », dit-il. La raison d’un kill switch n’est pas parce que le programme d’IA pourrait arrêter le système financier, ajoute-t-il, mais parce qu’il a probablement un bogue.

La meilleure façon de faire face au dilemme de Collingridge est d’accroître les connaissances sur l’IA dans les organisations et dans la société, et de vérifier le pouvoir des intérêts enracinés qui peuvent entraver les changements nécessaires. Plusieurs régulateurs sont déjà sur l’affaire, hébergeant des forums d’IA, développant des bacs à sable réglementaires pour tester et vérifier des algorithmes et déployant leurs propres systèmes d’apprentissage automatique pour surveiller les marchés.

Mais il y a un argument selon lequel il y a aussi des inconnues inconnues, comme l’a dit l’ex-secrétaire américain à la Défense Donald Rumsfeld, et que dans certaines circonstances, nous devrions déployer le principe de précaution. Les régulateurs devraient être prêts à interdire l’utilisation des systèmes d’IA les plus exotiques ou les plus mal conçus jusqu’à ce que nous comprenions mieux comment ils fonctionnent dans le monde réel.

john.thornhill@ft.com

Laisser un commentaire