Répondre à des questions simples des clients, faciliter les tâches de reporting, détecter la fraude… L’intelligence artificielle a de multiples usages dans le secteur financier, dont certaines se sont déjà concrétisées.

Comme souvent, c’est d’abord dans nos vies personnelles que l’intelligence artificielle (IA) a fait ses premiers pas. À travers des outils comme Alexa, l’assistant virtuel créé par Amazon, ou le Google Assistant, disponible en français depuis mai 2017, les Gafa (Google, Apple, Facebook et Amazon) ont affirmé leur virtuosité technique. Aujourd’hui, l’heure est à la conquête de nouveaux marchés. « L’intelligence artificielle va devenir omniprésente », prédit Philippe Lerique, associé du cabinet de conseil Sopra Steria. Dans le secteur financier, la course à l’innovation a déjà commencé. Il y a eu le big data, la blockchain. Désormais, le machine learning.

 

Machine learning

Certains acteurs ont déjà développé des solutions concrètes, comme la banque suisse UBS, qui a signé un partenariat avec le spécialiste de l’IA Arago dans le but d’automatiser une partie de son IT. Dans le secteur des paiements, le réseau MasterCard va intégrer une intelligence artificielle dans ses cartes à puce, afin d’analyser la nature des achats effectués et de détecter toute transaction suspecte grâce à l’apprentissage des habitudes de consommation du porteur – le fameux machine learning. La technologie cognitive d’IBM Watson, véritable célébrité parmi les IA, est elle aussi largement utilisée par les entreprises souhaitant mettre en place un chatbot – logiciel conversationnel permettant de répondre à des questions simples – comme le Crédit mutuel, qui utilise également Watson pour aider ses conseillers à traiter les demandes de clients envoyées par mail. « Le coût d’implémentation d’un chatbot est de plus en plus faible », affirme Christophe Chéreau, responsable de la Digital factory de BNP Paribas Personal Finance. Et sa courbe d’apprentissage le rendra capable de prendre en charge un nombre croissant de demandes, jusqu’à rendre exceptionnels les mails à traiter par un humain.

 

« Cet environnement de plus en plus complexe va certainement élargir le spectre d’intervention du régulateur »

 

Cadre réglementaire

À terme, les applications possibles sont multiples : la formation et la gestion des connaissances, grâce à des bases de données intelligentes, l’indexation et le suivi de données, par exemple dans le cadre d’un reporting réglementaire, l’analyse de données ciblées et la génération de rapports automatiques… « La partie authentification sera la plus difficile à mettre en œuvre », estime Christophe Chéreau. Car si les technologies sont déjà disponibles, entre la biométrie et la reconnaissance vocale, les aspects réglementaire et de sécurité posent encore de nombreuses questions. « Cet environnement de plus en plus complexe va certainement élargir le spectre d’intervention du régulateur », explique Édouard-François de Lencquesaing, président de l’Institut européen de régulation financière (EIFR). À l’échelle européenne, une consultation a été lancée en mars afin de mieux encadrer le secteur des fintechs. Concernant l’intelligence artificielle, Édouard-François de Lencquesaing met en garde le secteur contre « l’illusion scientifique », rappelant que pour faire bon usage d’une technologie, il faut d’abord s’assurer de la fiabilité des données mais aussi des process qui régissent leur fonctionnement, dessinés par des humains.

 

L’homme face à la machine

Le président de l’EIFR prend l’exemple de la crise des subprimes, en partie déclenchée par l’envolée de la value at risk (VaR), indice utilisé depuis les années 1980 par les banques afin d’estimer la perte potentielle maximale d’un investisseur sur la valeur d’un actif. « Tout le monde avait oublié les bases de la VaR », assène-t-il. Déresponsabilisés face à un indicateur utilisé par tous sans que soient questionnés ses postulats, les investisseurs avaient l’illusion que leurs pertes financières pouvaient être calculées, maîtrisées, anticipées avec précision. Leur croyance dans la fiabilité de la VaR a mené à l’emballement des marchés et à la crise que l’on connaît. Un exemple plus récent a montré les limites du machine learning : l’IA de Microsoft, Tay, a été mise hors ligne après huit heures seulement d’existence sur Twitter. Conçue pour apprendre de ses interlocuteurs, elle avait fini par émettre des propos racistes, nier l’Holocauste ou encore affirmer que George Bush était responsable du 11 septembre, poussée à la faute par des trolls. Si l’intelligence artificielle est bien la prochaine technologie incontournable du secteur, les financiers devront donc se pencher sur une épineuse question : comment s’assurer que la machine apprend correctement ?

 

Propos recueillis par Camille Prigent lors d’un atelier organisé par l’EIFR

Newsletter Flash

Pour recevoir la newsletter du Magazine Décideurs, merci de renseigner votre mail

GUIDE ET CLASSEMENTS

> Guide 2024