Le dilemme de la conformité à l'IA : la confiance appartient toujours aux humains

Roman Eloshvili est fondateur et directeur général du groupe XData, une société de développement de logiciels B2B. À ce poste, il dirige le développement de l’IA dans le secteur bancaire tout en gérant les relations avec les investisseurs et en favorisant la croissance des affaires. Il est également le fondateur de ComplyControl, une startup RegTech basée au Royaume-Uni, spécialisée dans des solutions technologiques de pointe pour les banques.


Découvrez les meilleures actualités et événements fintech !

Abonnez-vous à la newsletter de FinTech Weekly

Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et bien d’autres


Les banques et fintechs du monde entier cherchent des moyens d’utiliser l’intelligence artificielle de diverses façons : accélérer les opérations, réduire les coûts, améliorer les interactions avec les clients, et plus encore. Et pourtant, en ce qui concerne la conformité — sans doute l’une des parties les plus exigeantes et chronophages de la finance — la plupart des entreprises hésitent encore.

Une enquête menée plus tôt en 2025 a révélé qu’une très petite fraction des entreprises (moins de 2 %) ont réellement intégré l’IA dans leurs flux de travail. La majorité d’entre elles restent cependant en phase d’exploration et d’adoption précoce. Si elles l’adoptent vraiment, du moins.

La pression sur les entreprises pour suivre l’évolution réglementaire est toujours très présente, et elle ne cesse de croître. Alors pourquoi la conformité est-elle si lente à embrasser l’IA alors qu’elle pourrait leur être d’une grande aide ?

Essayons de comprendre.

L’œil humain pour les choses reste essentiel

La première et la plus importante chose à garder à l’esprit ici est que la conformité ne se limite pas à suivre une liste de contrôle. Il s’agit de faire des jugements dans des situations qui tombent souvent dans des zones grises. Le monde des décisions financières n’est que rarement tout noir ou tout blanc. Les réglementations varient selon les juridictions, et l’interprétation de ces règles est rarement simple.

L’IA est brillante pour analyser des données à la vitesse de l’éclair et repérer les anomalies. Mais si elle peut signaler une transaction suspecte selon des modèles préétablis, cela ne signifie pas qu’elle peut expliquer clairement le « pourquoi » derrière ses conclusions. Plus important encore, elle a du mal avec la nuance. Un responsable conformité humain peut détecter quand le comportement d’un client, bien que peu commun, est inoffensif. L’IA, quant à elle, est beaucoup plus susceptible de déclencher une alarme sans contexte.

C’est pourquoi les responsables conformité hésitent à leur confier entièrement la tâche. Les machines peuvent certainement aider, mais la majorité des gens font encore davantage confiance à la capacité d’un humain à voir la situation dans son ensemble et à juger en conséquence.

Efficacité versus risques réglementaires et réputationnels

La capacité d’une IA à analyser des milliers de transactions en temps réel est quelque chose qu’aucune équipe de conformité ne pourrait égaler en mode manuel. Sur le plan de l’efficacité, personne ne peut nier que c’est un outil de soutien précieux, capable de réduire la charge de travail pour que le personnel humain se concentre sur des tâches plus stratégiques et nuancées.

Mais la conformité n’est pas un domaine où la rapidité seule suffit. Si un système d’IA commet une erreur de jugement, cela peut entraîner des amendes, des dommages à la réputation ou un contrôle réglementaire accru. Toutes ces choses peuvent être très nuisibles — voire destructrices — pour une entreprise. Est-il donc surprenant que beaucoup veuillent éviter d’attirer de telles complications ?

La plupart des régulateurs conviennent également que, lorsqu’il s’agit de prise de décision basée sur l’IA, quelqu’un doit rester responsable. Si un modèle d’IA bloque par erreur une transaction légitime ou omet une fraude, la responsabilité revient en fin de compte à l’entreprise. Et ce sont les responsables conformité humains qui doivent assumer cette responsabilité.

Cela crée une prudence naturelle : les responsables conformité doivent peser les bénéfices d’une surveillance plus rapide contre les risques de sanctions réglementaires possibles. Et tant que les systèmes d’IA ne seront pas plus explicables et transparents, il est probable que de nombreuses entreprises hésiteront à leur confier des décisions autonomes.

Comment adopter l’IA de manière responsable

Une leçon très importante à tirer de tout ce qui précède est que l’hésitation des responsables conformité ne signifie pas qu’ils sont anti-IA. En réalité, beaucoup sont optimistes quant au rôle futur de l’IA. L’essentiel est de trouver la bonne voie.

Selon moi, la voie la plus naturelle et prometteuse consiste à adopter un modèle hybride. Une collaboration entre humains et IA, où l’intelligence artificielle effectue le travail lourd — scanner les transactions, signaler les activités inhabituelles ou générer des rapports. Et lorsque les résultats sont prêts, les humains peuvent les examiner, interpréter le contexte des décisions de l’IA, et prendre la décision finale.

Mais pour appliquer un tel modèle, les entreprises devront s’assurer que leurs systèmes d’IA soient explicables. La conformité ne consiste pas seulement à détecter les risques ; il s’agit de prouver que les décisions sont justes. C’est pourquoi le marché a besoin de plus d’outils d’IA capables d’expliquer leurs résultats en termes simples.

Ce n’est pas une question de « homme contre machine »

De façon réaliste, je ne pense pas que l’IA rendra les responsables conformité obsolètes. Il est beaucoup plus probable que leurs rôles évoluent — passant de simples exécutants à des gestionnaires. Ils passeront moins de temps à effectuer eux-mêmes des vérifications et se concentreront davantage à double-vérifier les décisions de l’IA, en traitant les zones grises où les machines restent insuffisantes.

Au fond, la conformité est une affaire humaine. Et si l’IA peut rendre les équipes de conformité plus rapides et efficaces, elle ne peut pas assumer la responsabilité morale et réglementaire qui en découle.

C’est pourquoi je suis fermement convaincu que l’avenir de la conformité sera moins une opposition « homme contre machine » et plus une collaboration « homme avec machine » — travaillant ensemble pour maintenir la sécurité et l’équité des systèmes financiers.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler