Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'IA en conformité n'est pas une boîte noire — c'est un test de responsabilité : Entretien avec Roman Eloshvili
Roman Eloshvili est le fondateur de ComplyControl, une startup spécialisée dans la conformité et la détection de fraude alimentée par l’IA pour les institutions financières.
Découvrez les principales actualités et événements fintech !
Abonnez-vous à la newsletter de FinTech Weekly
Lue par des dirigeants de JP Morgan, Coinbase, Blackrock, Klarna et bien d’autres
Ce que l’IA en conformité teste réellement : la technologie, ou nous ?
Dans les services financiers, la conformité n’est plus simplement une fonction. C’est un point de pression actif—où la réglementation, le risque et les opérations se croisent. À mesure que les technologies d’IA sont introduites dans cet espace, une question revient sans cesse : dans quelle mesure pouvons-nous vraiment automatiser, et qui reste responsable en cas de problème ?
L’attrait de l’IA dans la détection de fraude et la conformité est facile à comprendre. Les institutions financières doivent répondre à des attentes croissantes pour traiter d’énormes volumes de données, réagir face à des menaces en évolution, et respecter des réglementations changeantes—sans compromettre la rapidité ou la précision. L’automatisation, notamment lorsqu’elle est pilotée par l’apprentissage automatique, offre un moyen de réduire la charge opérationnelle. Mais elle soulève aussi des préoccupations plus profondes concernant la gouvernance, l’explicabilité et le contrôle.
Ces tensions ne sont pas théoriques. Elles se jouent en temps réel, alors que les entreprises financières déploient des modèles d’IA dans des rôles traditionnellement occupés par des analystes humains. En coulisses, de nouveaux risques apparaissent : faux positifs, angles morts lors des audits, et décisions algorithmiques qui restent opaques tant pour les utilisateurs que pour les régulateurs.
Parallèlement, les professionnels de la conformité doivent voir leur rôle évoluer. Plutôt que d’inspecter manuellement chaque transaction, ils supervisent désormais les outils qui le font. Ce changement de paradigme—de l’exécutant à l’évaluateur—exige non seulement de nouvelles compétences techniques, mais aussi un sens accru de responsabilité éthique et procédurale. L’IA peut analyser des données à grande échelle. Elle peut signaler des incohérences. Mais elle ne peut pas entièrement expliquer l’intention, interpréter le contexte, ou absorber la responsabilité.
Comprendre ces limites est essentiel. Et peu de personnes sont mieux placées que Roman Eloshvili, fondateur de la société britannique de technologie de conformité ComplyControl, pour les explorer. Son travail se situe à l’intersection du risque, de l’automatisation et de la supervision—là où l’efficacité algorithmique rencontre le contrôle réglementaire.
Fort d’une expérience de plus de dix ans dans le domaine, Roman a vu de première main comment les équipes de conformité évoluent et comment l’IA redessine leurs flux de travail et leurs responsabilités. Il affirme que la promesse de l’IA ne réside pas dans la suppression des rôles humains, mais dans leur transformation—apportant une nouvelle clarté sur ce que les machines doivent gérer, et ce que les humains doivent encore assumer.
Ce changement exige plus que des améliorations techniques. Il requiert une réorientation culturelle autour de la responsabilité. Des systèmes transparents, des processus audités, et une responsabilité humaine clairement attribuée ne sont plus de simples caractéristiques—ce sont le minimum requis. Lorsqu’on introduit l’IA dans des infrastructures critiques, elle ne résout pas seulement des problèmes. Elle introduit une nouvelle catégorie de décisions nécessitant une gestion active et stratégique.
Dans cette interview pour FinTech Weekly, Roman offre une vision concrète de ce qu’il faut pour intégrer l’IA de manière responsable dans la conformité et la prévention de la fraude. Son point de vue ne présente pas l’automatisation comme une fatalité, mais comme un choix—un qui requiert un jugement humain continu, une clarté opérationnelle, et une volonté de poser des questions difficiles sur la véritable source de la confiance.
Nous sommes heureux de partager ses insights à un moment où beaucoup dans la fintech se demandent non pas si adopter l’IA—mais comment le faire sans perdre de vue les standards qui ont permis aux systèmes financiers de fonctionner en premier lieu.
1. Vous avez construit une carrière à l’intersection de la conformité et de la technologie. Pouvez-vous vous rappeler le moment où vous avez réalisé que l’IA pouvait fondamentalement changer la gestion des risques ?
Je ne dirais pas qu’il s’agissait d’un seul moment précis qui a tout changé. Plutôt, c’était un processus étalé. J’ai passé une bonne partie de ma carrière à travailler avec des banques européennes établies, et une chose que je remarquais souvent, c’est que beaucoup d’entre elles étaient très en retard en matière de solutions bancaires numériques. La différence était particulièrement nette par rapport à des hubs fintech plus avancés.
Il y a quelques années, lorsque le sujet du développement de l’IA a commencé à revenir sur le devant de la scène, je suis naturellement devenu curieux et je me suis intéressé à la question. En étudiant la technologie et son fonctionnement, j’ai compris que l’intelligence artificielle avait le potentiel de transformer radicalement la façon dont les banques gèrent leur conformité, en les rapprochant des fintech modernes, plus agiles.
C’est ce qui m’a conduit à lancer ma société en 2023. La complexité de la conformité et de la gestion des risques ne cesse de croître chaque année. Face à cette réalité, notre mission est simple : apporter des solutions alimentées par l’IA aux entreprises financières et les aider à relever ces défis croissants de manière plus efficace.
2. D’un point de vue professionnel, comment le rôle des spécialistes humains a-t-il évolué avec l’avancée des outils d’IA en conformité et détection de fraude ?
Avant toute chose, permettez-moi d’aborder un point dès le départ. Il existe une inquiétude commune dans de nombreux domaines, celle que l’IA va remplacer les travailleurs humains. Et en ce qui concerne les professionnels de la conformité et du risque, ma réponse est non—du moins, pas dans l’immédiat.
Bien que l’intelligence artificielle transforme déjà notre secteur, elle est encore loin d’être infaillible. La participation humaine reste un facteur essentiel. Les réglementations en matière de conformité changent constamment, et quelqu’un doit pouvoir assumer la responsabilité lorsque les systèmes échouent ou font des erreurs. À son niveau actuel, l’IA a encore du mal à expliquer clairement ses décisions, elle n’est donc pas prête à fonctionner de manière autonome. Surtout dans un domaine où la confiance et la transparence sont primordiales.
Cela dit, l’IA facilite activement les processus de conformité. Par exemple, selon la configuration, les systèmes d’IA peuvent désormais signaler des transactions suspectes ou même les bloquer temporairement en demandant une vérification supplémentaire. Il n’est pas nécessaire que des humains examinent chaque détail manuellement, sauf si quelque chose sort vraiment du lot. Et à mesure que ces systèmes évoluent, ils continueront à réduire le besoin de travail manuel, permettant aux équipes de se concentrer davantage sur des tâches nuancées qui nécessitent vraiment une intervention humaine.
Je pense que nous allons voir émerger un modèle hybride, où les experts en conformité deviendront aussi de plus en plus compétents dans l’utilisation des outils d’IA. Ce seront eux qui mettront en œuvre et maintiendront ces systèmes, tandis que l’IA simplifiera leur travail en analysant des données complexes et en fournissant des recommandations. La décision finale, cependant, restera toujours entre les mains des humains.
3. Lorsqu’on travaille avec l’IA dans des domaines sensibles comme la conformité financière, comment avez-vous personnellement abordé le défi de maintenir la confiance et la responsabilité dans la prise de décision ?
Bien sûr. Comme je l’ai déjà mentionné, lorsque vous utilisez l’IA en conformité, la confiance est cruciale.
C’est pourquoi nous avons conçu nos systèmes d’IA pour qu’ils soient entièrement transparents. Ils ne fonctionnent pas comme une “boîte noire”—chaque recommandation faite par le système repose sur des règles et des données traçables. Nous conservons une piste d’audit complète de la façon dont chaque décision est prise, afin qu’elle soit entièrement explicable. Cette pratique s’est déjà révélée extrêmement précieuse lors de interactions avec les régulateurs.
L’appel final revient toujours à l’officier de conformité. L’IA propose simplement une suggestion bien justifiée, que l’humain peut ensuite facilement vérifier et décider d’approuver ou de rejeter.
4. Votre expérience couvre plus de 10 ans. Comment votre vision de l’automatisation et de la supervision humaine a-t-elle évolué au fil de votre carrière, surtout avec l’IA devenant de plus en plus autonome ?
Certainement. En parlant plus largement de l’état de l’adoption de l’IA, plus cette technologie progresse, plus nous lui permettons une autonomie progressive—à condition qu’elle soit rigoureusement testée et continue de faire ses preuves.
Mais ce qui change encore plus, c’est le rôle que joue le spécialiste humain dans cette équation. Au lieu de gérer chaque cas en détail, les responsables conformité jouent désormais un rôle de superviseurs stratégiques. Ils peuvent examiner rapidement des lots entiers de cas similaires, valider la performance du système, et ajuster les modèles en fonction des résultats.
En d’autres termes, le rôle délégué des responsables conformité évolue de la gestion manuelle vers la gestion des systèmes d’IA qui font le travail pour eux.
5. Travailler dans la gestion des risques pilotée par l’IA implique de naviguer dans des questions éthiques complexes. Comment avez-vous personnellement développé un cadre pour faire des choix responsables lors de la conception ou de la mise en œuvre de solutions basées sur l’IA ?
Nous avons construit notre approche autour de deux idées clés : une supervision claire et des principes d’IA responsable. Chaque modèle que nous utilisons a une personne désignée responsable de sa gestion. Les évaluations de risque, les revues de performance et les contrôles de conformité sont effectués régulièrement.
Nous veillons également à ce que nos systèmes soient auditable. Si l’algorithme prend une décision, ce processus peut être examiné et vérifié. Cette transparence est une composante essentielle de notre engagement envers un développement d’IA responsable.
6. Au cours de votre parcours, quelle a été la leçon professionnelle la plus difficile que vous ayez apprise concernant les limites—ou les risques—d’une dépendance excessive à l’automatisation dans des domaines critiques comme la prévention de la fraude ?
Une leçon qu’il faut garder en tête, c’est que même des modèles bien entraînés peuvent encore “halluciner”—faire des erreurs de manière subtile mais grave.
L’IA peut passer à côté de schémas de fraude complexes, ou déclencher trop d’alertes fausses. C’est précisément pour cela qu’il est crucial de combiner l’IA avec l’expertise humaine—les humains apportent un jugement fluide et sont meilleurs pour évaluer l’éthique et le contexte global, dans des manières que l’IA ne peut pas encore faire.
L’équilibre entre les deux promet des résultats plus fiables et plus précis. L’IA peut couvrir le volume massif de tâches et en alléger la complexité, tandis que les humains maintiennent le niveau d’exactitude et de confiance nécessaire.
7. Pour les jeunes professionnels qui entrent aujourd’hui dans la conformité, la gestion des risques ou le développement de l’IA, quels principes ou habitudes personnelles leur conseilleriez-vous de cultiver pour réussir et s’adapter dans un environnement aussi rapide à changer ?
D’abord et avant tout : ne jamais cesser d’apprendre. Le progrès technologique n’a pas de bouton “pause”, et il faut suivre le rythme ou risquer d’être dépassé. Il n’y a pas d’entre-deux.
Ensuite, pensez large. Avec l’avancée de l’IA, les frontières entre rôles s’estompent—tech, finance, réglementation deviennent un tout mêlé. Je suis convaincu qu’avoir un large éventail de compétences et un esprit ouvert seront les traits déterminants pour les futurs professionnels du secteur.
Troisièmement—et c’est une suite naturelle des deux précédents—soyez adaptable. Le changement est constant, et la capacité à s’ajuster rapidement sera un atout majeur.
Et enfin, développez de solides compétences en communication et apprenez à travailler en équipe. Comme nous l’avons déjà évoqué, la conformité se trouve à l’intersection des affaires, de la technologie et du droit. Être capable de changer de registre et de dialoguer avec des personnes issues de ces différents mondes sera une compétence précieuse à acquérir.