Comment l’IA peut aider à lutter contre le blanchiment de capitaux
Que ce soit en matière de traitement ou de détection, l’utilisation de l’intelligence artificielle peut réduire les coûts et les difficultés liés à la lutte contre le blanchiment d’argent et le financement du terrorisme. Voici l’éclairage de Me Zineb Naciri Bennani.
![](https://static.medias24.com/content/uploads/2023/06/01/Zineb-Naciri-Bennani.jpg?x20870)
Comment l’IA peut aider à lutter contre le blanchiment de capitaux
Partager :
-
Pour ajouter l'article à vos favorisS'inscrire gratuitement
identifiez-vousVous possédez déjà un compte ?
Se connecterL'article a été ajouté à vos favoris -
Pour accéder à vos favorisS'inscrire gratuitement
identifiez-vousVous possédez déjà un compte ?
Se connecter
Sara Ibriz
Le 28 mai 2024 à 17h27
Modifié 28 mai 2024 à 18h24Que ce soit en matière de traitement ou de détection, l’utilisation de l’intelligence artificielle peut réduire les coûts et les difficultés liés à la lutte contre le blanchiment d’argent et le financement du terrorisme. Voici l’éclairage de Me Zineb Naciri Bennani.
De plus en plus exigeantes, les règles de conformité visant à lutter contre le blanchiment de capitaux peuvent être appliquées avec davantage de facilité pour l’humain, grâce à l’intelligence artificielle.
Un outil devenu indispensable pour certaines banques sur lesquelles pèse l’obligation de vigilance. D’autres professions doivent répondre à la même obligations mais tentent, en parallèle, de maintenir le secret professionnel qui incombe à leur profession. C’est le cas des avocats qui ont besoin d’accompagnement et de formation dans ce sens.
Comment l’intelligence artificielle peut-elle les aider ? Quelles sont les avancées en matière d’usage de l’IA dans la lutte anti-blanchiment de capitaux ? Voici l’éclairage de Me Zineb Naciri Bennani.
L’intelligence artificielle, un recours "indispensable"
Médias24 : L’infraction de blanchiment de capitaux est connue pour son adaptation et son renouvellement continu. Selon vous, faut-il s’en remettre aux outils basés sur l’intelligence artificielle pour renouveler les dispositifs de lutte contre le blanchiment d’argent (LBC) et le financement du terrorisme (FT) ?
Me Zineb Naciri Bennani : Je pense qu’il devient indispensable, en la matière, d’avoir recours aux outils basés sur l’intelligence artificielle. La lutte contre le blanchiment de capitaux et le financement du terrorisme représente un coût très lourd en ressources humaines et financières, notamment pour les autorités publiques et les institutions financières.
Les nouveaux outils algorithmiques de l’intelligence artificielle et de l’apprentissage automatique (machine learning) leur permettent de gagner en efficacité et en coût. C’est le cas de Tracfin [unité française du traitement du renseignement financier, ndlr] qui utilise avec succès l’intelligence artificielle pour traiter les milliers de déclarations de soupçon qui lui parviennent chaque année (160.000 en 2022).
- Y a-t-il des mesures que l’Autorité nationale du renseignement financier (ANRF) peut intégrer pour évaluer les systèmes en vigueur de LBC/FT ?
- Le Maroc prend en compte les recommandations du GAFI, qui sont reconnues comme les normes internationales en la matière. Les membres du GAFI procèdent à des évaluations des niveaux de mise en œuvre des recommandations du GAFI sur une base continue.
Il s’agit d’évaluations par les pairs où des membres de différents pays évaluent un autre pays. La méthodologie du GAFI pour l’évaluation de la conformité aux recommandations du GAFI et de l’efficacité des systèmes de LBC/FT définit le processus d’évaluation.
- Le rôle des banques dans cette lutte est également crucial. Peuvent-elles intégrer l’IA pour détecter plus efficacement les cas suspects, voire les cas avérés de blanchiment d’argent ?
- Les nombreuses obligations en croissance constante à la charge des banques font du secteur bancaire celui de la conformité par excellence. Il y a vingt ans déjà, dans un document consultatif du 27 octobre 2003 sur la fonction de conformité dans les banques, le Comité de Bâle sur le contrôle bancaire définissait le risque de non-conformité "comme un risque de sanction judiciaire, administrative ou disciplinaire, de perte financière, d’atteinte à la réputation, du fait de l’absence de respect des dispositions législatives et réglementaires et des normes et usages professionnels et déontologiques, propres aux activités de banque".
En 2023, la banque anglaise HSBC a ainsi eu recours à une solution informatique d’IA élaborée par Google Cloud pour détecter les opérations de blanchiment (Anti Money Laundering AI ou AML AI). La banque a annoncé avoir identifié deux à quatre fois plus d’activités suspectes tout en réduisant le volume d’alertes de plus de 60%. C’est éloquent sur le rôle de l’IA au profit des obligations de conformité des banques.
La machine permet de mettre en évidence les mouvements de masse, avec les critères de détection à déterminer par l’humain, qui reste bien évidemment indispensable dans le processus.
- Les avocats font partie des personnes assujetties à l’obligation de déclaration de soupçon et à l’obligation de vigilance. Pour ce faire, ils doivent mettre en place des dispositifs de suivi au sein même de leur cabinet. Comment l’IA peut-elle les aider ?
- La déclaration de soupçon est prévue par la loi 43-05 à l’article 9. Elle porte sur toutes sommes, opérations ou tentatives de réalisation d’opérations par des clients habituels et occasionnels, pour lesquelles les avocats soupçonnent ou ont de bonnes raisons de soupçonner qu’elles pourraient être liées au blanchiment de capitaux ou au financement du terrorisme.
Les signaux d’alarme proviennent généralement d’une ou de plusieurs caractéristiques factuelles, comportements, ou autres facteurs contextuels qui révèlent des irrégularités, et qui peuvent être automatisés par les outils utilisant l’intelligence artificielle.
L’intelligence artificielle n’est pas infaillible, et l’avocat doit se prémunir contre les risques
Néanmoins, au regard de l’obligation de secret professionnel pesant sur l’avocat et l’importance de la confiance du client en son avocat, il est nécessaire de pouvoir mettre à leur disposition les outils nécessaires, sous le contrôle des autorités ordinales, et des formations adaptées (guides pratiques, modules de formation, communications de l’ordre) pour leur permettre de maîtriser entièrement la question.
L’intelligence artificielle n’est pas infaillible et l’avocat doit se prémunir contre les risques relatifs à ses obligations déontologiques à son égard et à ses obligations dans le cadre des données personnelles manipulées.
Aujourd’hui, la confidentialité des données n’est pas garantie par l’IA. Certaines LegalTech proposent d’analyser les conclusions adverses pour proposer des arguments en réponse, ou encore pour trouver les jurisprudences citées. Nul ne sait encore qui détient ces données et quel usage en est fait, voire s’il est possible de les supprimer des programmes.
"L'IA Act, une législation inédite au niveau mondial"
- Comment cela se passe-t-il sous d’autres cieux ? Y a-t-il des dispositifs étrangers dans lesquels l’intelligence artificielle a été mise au service de la lutte contre le blanchiment de capitaux et le financement du terrorisme ?
- Effectivement, la conformité est devenue une mission de plus en plus complexe qui engendre des sanctions pouvant être lourdes pour les entreprises, et l’intelligence artificielle s’avère être la réponse la plus efficace.
La conformité est devenue une mission de plus en plus complexe
C’est pour cela que, le 13 mars 2024, les euro-députés ont validé le projet de la Commission européenne d’un IA Act, législation inédite au niveau mondial.
L’objectif du texte, face au caractère devenu indispensable de l’IA, est de veiller à ce que les systèmes d’IA mis sur le marché soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux, les valeurs de l’UE, l’État de droit et la durabilité environnementale.
Le texte tend à garantir la sécurité juridique afin de faciliter les investissements et l’innovation dans le domaine de l’IA, à renforcer la gouvernance et l’application effective de la législation existante en matière d’exigences de sécurité applicables aux systèmes d’IA et de droits fondamentaux, et à faciliter le développement d’un marché unique pour des applications d’IA légales et sûres, et empêcher la fragmentation du marché.
LIRE AUSSI
Vous avez un projet immobilier en vue ? Yakeey & Médias24 vous aident à le concrétiser!Lutte BC/FT. Déclaration de soupçon vs secret professionnel : un débat tardif qui anime les avocats