Contrôler l’irruption de l’intelligence artificielle dans les marchés financiers

Jean-François Venne
Collaboration spéciale
L’intelligence artificielle repose sur l’ingestion massive de données, ce qui génère des défis de protection de la vie privée.
Getty Images L’intelligence artificielle repose sur l’ingestion massive de données, ce qui génère des défis de protection de la vie privée.

Ce texte fait partie du cahier spécial Finances personnelles

L’Autorité des marchés financiers (AMF) est devenue en novembre le premier organisme de réglementation canadien à publier un rapport sur l’utilisation responsable de l’intelligence artificielle (IA) dans les services financiers. Un premier pas vers de nouvelles règles ?

La réalisation du document a été confiée au professeur d’éthique et de philosophie politique de l’Université de Montréal Marc-Antoine Dilhac, qui avait lancé en 2017 le projet de Déclaration de Montréal pour un développement responsable de l’IA. « Avant de créer des règles, l’AMF veut mieux connaître les utilisations de l’IA dans les services financiers et sensibiliser l’industrie afin qu’elle anticipe elle-même certains enjeux éthiques », résume-t-il.

Gavage de données

 

Actuellement, l’IA appuie surtout les services financiers dans quatre fonctions. Elle aide à effectuer des évaluations, comme le pointage de crédit des consommateurs. Elle soutient l’offre d’applications qui visent à diminuer les risques comportementaux et à personnaliser la tarification des produits d’assurance. Elle préside à l’optimisation des portefeuilles d’investissement ou des flux du travail. Enfin, elle facilite le conseil et l’information.

Les évaluations et la gestion des comportements, en particulier, soulèvent des inquiétudes ; d’abord parce que l’IA repose sur l’ingestion massive de données. « Cela génère des défis de protection de la vie privée, souligne Me Charles S. Morgan, associé au sein du cabinet McCarthy Tétrault. Quelles données sont utilisées ? Comment les protège-t-on ? Sont-elles toutes nécessaires à l’accomplissement de la tâche ? Quel contrôle les consommateurs gardent-ils sur leur usage ? »

La Loi modernisant des dispositions législatives en matière de protection des renseignements personnels, adoptée par Québec en septembre 2021, prévoit que les organisations qui emploient des processus de décision entièrement automatisés doivent révéler aux personnes concernées quels renseignements ont servi et leur accorder le droit de les faire rectifier. Ces règles ne s’appliquent toutefois pas aux processus partiellement automatisés qui appuient une décision humaine.

Des décisions biaisées

 

Cependant, le processus de décision lui-même peut générer des problèmes. « Les risques de biais envers les femmes ou les personnes racisées ont été démontrés, mais il existe aussi de gros dangers de discriminations socio-économiques », explique Marc-Antoine Dilhac. Les inégalités de ce type peuvent se voir amplifiées par des déterminants sociaux comme l’éducation et la littératie numérique, le code postal ou même l’accès à certaines marques de téléphones cellulaires. Marc-Antoine Dilhac cite l’exemple de cas dans certains pays où le fait de posséder un iPhone, plutôt qu’un appareil moins prestigieux, octroyait plus de points dans l’évaluation automatisée d’une demande de prêt.

Il n’est pas nécessaire de comprendre tous les aspects de la prise de décision [basée sur des algorithmes], mais on doit pouvoir en saisir les éléments de base

 

Le rapport de l’AMF recommande par ailleurs aux institutions financières de toujours justifier auprès des consommateurs les décisions prises à l’aide d’algorithmes. La loi adoptée en septembre dernier exige d’ailleurs d’informer les clients « des raisons, ainsi que des principaux facteurs et paramètres ayant mené à la décision ». Cela peut s’avérer plus compliqué qu’on le pense, en raison du problème de la « boîte noire ». En clair : on connaît les données que l’on offre en pâture à l’algorithme, mais on ne sait pas avec précision comment il arrive à son résultat.

« Il n’est pas nécessaire de comprendre tous les aspects de la prise de décision, mais on doit pouvoir en saisir les éléments de base, et surtout s’assurer que le consommateur a des recours auprès d’un humain », avance Me Morgan. L’AMF recommande que les institutions financières adaptent leurs procédures de contestation et de recours afin de faciliter les démarches des consommateurs.

Surveillance et contrôle

 

Depuis quelques années, les assureurs emploient l’IA pour proposer à leurs clients des formules basées sur des « incitations vertueuses ». Au Québec, on en retrouve dans les assurances automobile. Les conducteurs acceptent de s’équiper d’une application qui analyse leur comportement sur la route et bénéficient de récompenses, comme des rabais, lorsqu’ils conduisent de manière sécuritaire.

Aux États-Unis, cette approche est aussi utilisée dans l’assurance vie. La firme John Hancock, une filiale de Manuvie, vend désormais uniquement ses plans d’assurance vie à des clients qui consentent à porter l’application mobile Vitality, qui leur offre des rabais ou des cadeaux s’ils atteignent certaines cibles, par exemple d’exercices physiques.

« Cette forme de contrôle et de surveillance ouvre la porte à des discriminations basées sur des styles de vie ou des comportements choisis en fonction de l’intérêt des institutions financières, ainsi qu’à l’exclusion de ceux et celles qui ne sont pas connectés », prévient le professeur Dilhac.

De son côté, Me Morgan se réjouit de constater que l’AMF reconnaît l’importance d’amorcer une réflexion sur ces sujets épineux. « Avant d’imposer un cadre réglementaire contraignant, on doit saisir les enjeux, croit-il. En croisant les regards des acteurs de l’industrie, des consommateurs et des chercheurs, ce rapport constitue une belle première étape. »

À voir en vidéo