Intelligence artificielle dans les services financiers - entre risques et occasions

time 5m
Intelligence artificielle dans les services financiers - entre risques et occasions

L’intelligence artificielle (IA) représente un grand potentiel pour les services financiers, qui l’utilisent notamment dans leurs processus décisionnels. Son emploi pose toutefois plusieurs risques éthiques et d’affaires, dans un contexte où l’encadrement se précise lentement.

«  En raison de leur usage de l’IA, les institutions financières vivent des défis de protection des données, mais doivent aussi résoudre des dilemmes éthiques quant au type de données qu’elles peuvent recueillir, leur exploitation et le consentement éclairé des clients  », souligne Marc-Antoine Dilhac, professeur adjoint en éthique et philosophie politique à l’Université de Montréal. Il a contribué ce printemps à une consultation de l’Autorité des marchés financiers sur l’IA dans les services financiers.

Des lois provinciales et canadiennes encadrent la protection des renseignements personnels, mais sans dispositions spécifiques à l’IA. «  Cela pourrait changer bientôt du fait de deux projets de loi discutés à Ottawa et à Québec  », indique Me Charles Morgan, coleader national du groupe Cyber/Données du cabinet McCarthy Tétrault.

Il s’agit du projet de loi 64 au Québec et du projet de loi C-11 au gouvernement fédéral. «  Les deux proposent des règlements sur les systèmes de décision automatisés  », précise Me Morgan. Ils présentent deux catégories d’obligation  : divulguer diverses informations dans la politique de respect de la vie privée d’une entreprise sur les données que ces systèmes utilisent ete fournir des explications quant à la décision.

 

Processus opaque

La transparence pose cependant un énorme défi technique en IA, en raison du problème de la «  boîte noire  ». Les réseaux neuronaux, une approche très utilisée dans les processus décisionnels basés sur l’IA, peuvent traiter une quantité phénoménale de données, comme du texte, des images, des informations prélevées par des capteurs ou par une montre intelligente, etc.

«  On offre ces données brutes en pâture à une intelligence artificielle et elle en déduit une règle de décision, souvent plus précise que les règles traditionnelles, explique François Laviolette, professeur au Département d’informatique et de génie logiciel de l’Université Laval et titulaire d’une chaire en IA Canada-CIFAR. Mais on n’arrive pas à comprendre le fonctionnement du réseau de neurones. C’est trop complexe.  »

Dans les services financiers, cela pose un problème majeur puisque l’on doit pouvoir justifier clairement ses décisions. Le client a le droit de savoir pourquoi on lui accorde ou non un prêt ou une assurance ou comment l’institution a fixé le montant de sa prime. Par ailleurs, ces capacités de l’IA créent deux autres dangers particuliers dans l’assurance. «  L’IA pourrait générer une hyper segmentation qui remettrait en cause le principe de la mutualisation des risques, affirme Marc-Antoine Dilhac. Des individus pourraient se retrouver à payer beaucoup plus cher que d’autres, ou se voir privés d’accès à des assurances.  »

Les assureurs jumellent également l’IA avec les objets connectés pour instaurer des mécanismes de modification du comportement des assurés (nudging). Une application sur une montre intelligente ou un téléphone intelligent peut par exemple proposer des objectifs d’activité physique ou de sommeil, envoyer des notifications, mesurer l’activité physique, etc.

«  Il y a un risque d’atteinte à la liberté des usagers d’effectuer leurs propres choix de vie, avertit Marc-Antoine Dilhac. Pour que l’assentiment des utilisateurs à ces approches reste vraiment libre et éclairé, ils doivent disposer d’autres possibilités. S’ils sont obligés d’accepter ces outils pour accé

 

Des outils biaisés

Par ailleurs, contrairement à ce que l’on pourrait penser, l’IA n’est pas neutre. «  Les humains qui programment les algorithmes peuvent, consciemment ou non, y introduire des biais, explique Golnoosh Farnadi, professeure adjointe à HEC Montréal et titulaire d’une chaire en IA Canada-CIFAR. De plus, ces algorithmes s’entraînent et produisent des décisions en utilisant les données qu’on leur fournit. Donc, des problèmes peuvent surgir si celles-ci sont biaisées, partiales ou discriminatoires.  »

Le risque de biais dans l’IA reste complexe à résoudre. Les biais se définissent toujours en fonction d’une variable, par exemple l’âge, le genre, l’origine ethnique ou culturelle, le lieu de résidence, etc. En théorie, deux décisions qui portent sur deux dossiers identiques ne devraient pas être différentes juste parce qu’une des deux personnes est une femme, un Autochtone ou habite dans un quartier réputé plus riche ou plus pauvre.

Pour éviter cela, des assureurs laissent de côté certaines informations dans leurs processus de décision automatisés. Mais ils font fausse route, croit François Laviolette. «  Les algorithmes peuvent aisément effectuer des corrélations avec d’autres variables, comme le prénom, le nom de famille ou même la profession pour inférer le genre ou l’origine ethnique ou culturelle, par exemple  », prévient-il.

Alors que faire? Pour François Laviolette, les assureurs doivent d’abord définir quelles variables ne doivent pas causer de biais. Ils pourraient par exemple estimer que l’âge peut constituer une variable dont il faut tenir compte dans la décision, mais pas l’origine ethnique ou le genre. «  Ils devraient tout de même utiliser toutes ces variables dans leurs processus décisionnels, mais mener par la suite des audits pour s’assurer qu’elles ne créent pas des biais dans les décisions  », conseille François Laviolette.

Les services financiers doivent donc approcher l’emploi de l’IA avec prudence. Ils courent le risque d’investir dans des outils conformes à la réglementation actuelle, mais qui ne seront plus en phase avec les règles qui seront adoptées dans les prochaines années. Le 21 avril dernier, la Commission européenne a donné du canon en proposant un nouvel encadrement de l’IA, lequel interdirait entre autres «  les systèmes qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre  ». Les technologies d’IA utilisées dans l’évaluation du risque de crédit y sont aussi jugées «  à risque élevé  ».

«  Le secteur de l’IA connaît une grande effervescence, admet Me Morgan. Toutefois, l’utilisation de l’IA, notamment dans les services financiers, présente également des risques pour les entreprises et les consommateurs. Mieux vaut rester prudent.  »