Lindemann Law

L’intelligence artificielle au service des opérateurs de jeux d’argent pour protéger les joueurs ?

[et_pb_section fb_built= »1″ _builder_version= »4.16″ global_colors_info= »{} »][et_pb_row _builder_version= »4.16″ background_size= »initial » background_position= »top_left » background_repeat= »repeat » custom_padding= »0px|||0px|| » global_colors_info= »{} »][et_pb_column type= »4_4″ _builder_version= »4.16″ custom_padding= »||| » global_colors_info= »{} » custom_padding__hover= »||| »][et_pb_text _builder_version= »4.16″ background_size= »initial » background_position= »top_left » background_repeat= »repeat » global_colors_info= »{} »]

L’intelligence artificielle (« IA ») a connu un développement considérable ces derniers temps, et le secteur des jeux d’argent, en particulier les casinos en ligne, et l’IGaming en général (paris sportifs, loteries, jeux d’adresse) sont également concernés. Récemment, un logiciel de protection des joueurs utilisant l’intelligence artificielle est apparu, développé par « Mindway AI » (Page d’accueil – Mindway AI). Ce logiciel a fait l’objet d’importants développements et répond de plus en plus aux besoins des maisons de jeu. Même s’il ne répond pas encore totalement à leurs besoins et que sa mise en œuvre pratique soulèvera certainement un certain nombre de questions, il y a quelques raisons de s’y intéresser dès à présent.

1. Quelles sont les dispositions légales applicables ?

En droit suisse, les exploitants de jeux d’argent sont tenus de prendre des mesures appropriées pour protéger les joueurs contre la dépendance au jeu et le jeu excessif (art. 71 de la Loi fédérale sur les jeux d’argent LJAr / Geldspielgesetz, BGS). Les maisons de jeu et les exploitants de jeux de grande envergure définissent et mettent en place un programme de mesures sociales (« concept social ») (art. 76, al. 1, LJAr). En tenant compte du danger potentiel et des caractéristiques du canal de distribution des différentes offres de jeux, elles y définissent les mesures qu’elles entendent prendre pour protéger les joueurs. Ce « concept social » doit être approuvé par la Commission fédérale des maisons de jeu (CFMJ / ESBK / SFGB). Protéger les joueurs de la dépendance au jeu, du surendettement et plus généralement des effets négatifs du jeu sur leur vie privée, tant sur le plan social que familial, est une préoccupation essentielle à laquelle chaque maison de jeu doit adhérer, avec toutes les conséquences importantes que cela implique en termes de personnel et de coûts. Et ce, non seulement en Suisse, mais aussi dans d’autres pays européens et dans le monde entier.

2. L’utilisation de l’IA peut-elle devenir une mesure appropriée pour protéger les joueurs au sens des art. 71 et des art. 76 ss. LJAr ?

Au vu des développements récents, l’utilisation de logiciels basés sur l’IA pourrait rapidement être considérée comme une mesure appropriée pour protéger les joueurs. Cependant, les maisons de jeu, les casinos et les casinos en ligne disposent déjà de mesures et de concepts sociaux approuvés par la CFMJ/ESBK / SFGB, et la question est plutôt  « pourquoi devrais-je changer mon système dûment approuvé et autorisé» , étant donné que l’IA n’est pas encore une exigence réglementaire ? Quelle serait la valeur ajoutée par rapport aux mesures actuelles ?

Bien entendu, il n’est pas possible de donner une réponse générale positive ou négative à cette question, et chaque maison de jeu devra donner une réponse sur mesure en fonction de son type (A / B), de sa taille, de sa structure et de son organisation, etc.

Toutefois, certains aspects généraux décrits dans la section 3 ci-dessous tendent à démontrer que l’utilisation de l’IA pourrait apporter une valeur ajoutée à la protection des joueurs.

3. Pourquoi les ressources de l’intelligence artificielle pourraient-elles remplacer les ressources humaines ?

La mise en œuvre de la protection des joueurs nécessite un personnel spécialement dédié. Ce personnel doit analyser les « alertes » déclenchées par les joueurs au cours du jeu (pertes importantes avec différents seuils, tentatives de paiement refusées par l’émetteur de la carte ou la banque, etc. Les maisons de jeu ont mis en œuvre ce profilage de manière différente et non uniforme, certaines ayant engagé des juristes en interne, d’autres des psychologues, d’autres des personnes sans qualification particulière à moindre coût formées sur le tas, d’autres encore utilisant une combinaison de ces différentes formes.

L’utilisation des ressources humaines employées par la maison de jeu n’est pas efficiente à plusieurs égards :

  • Les coûts sont élevés pour la maison de jeu : plus elle a de joueurs actifs, plus elle a besoin de profileurs. Or, il existe de fortes fluctuations saisonnières et une tendance à la sous-dotation en personnel, ce qui entraîne une surcharge aux périodes de grande affluence.
  • Le risque d’erreur est élevé : Si l’analyse et le résultat sont objectivés par des critères objectifs, il n’en demeure pas moins que le cas de figure examiné ne peut souvent pas être immédiatement et automatiquement clairement tranché, et que la décision finale est en fin de compte subjective et humaine. De plus, comme nous l’avons mentionné plus haut, les « profileurs » ne sont souvent pas assez nombreux au sein de la maison de jeu, souvent débordés et ont tendance à bâcler l’analyse du joueur pour gagner du temps.
  • Le risque de conflit d’intérêts est également important, puisqu’un joueur qui doit être interdit de jeu est également un client perdu pour la maison de jeu. Plus le joueur perd de l’argent dans la maison de jeu, plus le profileur aura tendance à être compréhensif et indulgent dans son analyse.

Un logiciel d’intelligence artificielle tel que Mindway AI pourrait optimiser le profilage et réduire ces risques, ce qui se traduirait par une meilleure protection des joueurs.

4. Quels pourraient être les problèmes techniques liés à la mise en œuvre ?

Sur le plan technique, la première chose à faire pour la maison de jeu serait de déterminer si et comment un logiciel d’IA peut être intégré dans son environnement. Les casinos en ligne, par exemple, devraient déterminer avec leur fournisseur de logiciel de plateforme de jeu externe si et comment cette intégration peut avoir lieu. Dans la pratique, cela se traduirait par un contrat basé sur des discussions et des négociations entre les trois parties (casinos en ligne, fournisseur de logiciel de plateforme de jeu et fournisseur de logiciel d’IA). Notre cabinet d’avocats peut vous assister dans ce processus.

 

5. Quels pourraient être les risques juridiques concernant la confidentialité et la protection des données ?

La technologie de l’IA repose souvent sur de grandes quantités de données pour fonctionner efficacement, ce qui soulève des préoccupations en matière de confidentialité et de protection des données. Il existe plusieurs lois et règlements en vigueur dans le monde pour protéger les données personnelles, comme la loi fédérale suisse sur la protection des données (LPD), le règlement général sur la protection des données (« RGPD ») dans l’Union européenne et le California Consumer Privacy Act (« CCPA ») aux États-Unis. Récemment, avec le règlement ePrivacy (officiellement : Règlement du Parlement européen et du Conseil concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques et abrogeant la directive 2002/58/CE), l’Union européenne souhaite renforcer la protection de la vie privée des citoyens dans les communications en ligne et réglementer plus intensément la protection des données au sein de l’UE (NB : L’entrée en vigueur du règlement ePrivacy n’est pas prévue avant la fin de l’année 2023. Compte tenu d’une éventuelle période de transition de 24 mois à partir de la date d’entrée en vigueur, cela signifie que toute nouvelle réglementation n’entrerait pas en vigueur avant la fin de l’année 2025). En outre, une nouvelle exigence réglementaire à venir doit être prise en compte, également par les acteurs suisses, à savoir le projet de loi intitulé « Artificial Intelligence Act » [« AI Act » :  Proposition de Règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l’Intelligence Artificielle (Législation sur l’Intelligence Artificielle) et modifiant certains actes législatifs de l’Union ; le « règlement sur l’IA » (voir notre lettre d’information: La loi sur l’intelligence artificielle de l’UE : Impact sur la Suisse ?)].

 

6. Quels sont les risques en matière de fiabilité et de responsabilité ?

La technologie de l’IA pose des problèmes juridiques en matière de responsabilité et d’obligation de rendre des comptes. Les systèmes d’IA peuvent prendre des décisions et des mesures de manière autonome, ce qui soulève la question de savoir qui est responsable des conséquences de ces décisions et de ces mesures. Il faudra notamment déterminer si les résultats et les décisions prises par l’IA (exclusion des jeux, limitation des pertes, ouverture d’enquêtes spéciales, etc.) devront toujours être vérifiés par un être humain selon le principe des quatre yeux, ou si la fiabilité est telle que l’on peut se passer de tout contrôle. Ensuite, bien sûr, en cas de problème informatique et d’indisponibilité du logiciel d’IA, une procédure d’urgence sera mise en place pour traiter les alertes déclenchées par les joueurs jusqu’à ce que le problème soit résolu.

Avant d’utiliser l’IA, il faut procéder à une évaluation des risques, et toutes les questions doivent être abordées dans un contrat.

7. L’utilisation de l’IA pour la protection des joueurs pourrait-elle bientôt devenir une exigence légale ou réglementaire pour les maisons de jeu ?

Actuellement, du moins en Suisse, il n’y a pas d’obligation légale ou réglementaire d’utiliser l’IA dans le concept social des maisons de jeu. Cependant, l’autorité de surveillance ESBK / CFMJ / SFGB a déclaré qu’elle suivait de près les développements dans le domaine de l’IA, et il est clair qu’elle pourrait rapidement élever l’obligation d’utiliser l’IA au niveau réglementaire si, à son avis, les conditions qu’elle s’est fixées sont remplies. Dans ce cas, les maisons de jeux (casinos, casinos en ligne, etc.) devront réagir rapidement. Les maisons de jeux doivent donc anticiper cette question et nous sommes là pour les accompagner dans cette démarche, notamment dans le développement des projets et la négociation et la rédaction des contrats.

8. En cas d’utilisation de l’IA, dois-je obtenir une autorisation préalable de l’autorité de contrôle ?

Le projet doit d’abord être soumis à l’approbation de l’autorité de surveillance. Là encore, nous pouvons vous aider à préparer votre demande.

9. Existe-t-il aujourd’hui un logiciel suffisamment développé qui a été officiellement reconnu et approuvé par une autorité de surveillance ?

Pas à notre connaissance. Mais cela pourrait bientôt changer.

 

 

LINDEMANNLAW vous soutient dans l’analyse, le développement du projet, les négociations et la rédaction contractuelles, ainsi que dans la préparation et le dépôt de la demande d’agrément auprès de la CFMJ/ESBK /SFGB.

[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

AIFMD dans l’UE : Champ d’application, conformité et structures alternatives

Entretien avec le Dr iur. Alexander Lindemann : Ce que signifie l’arrêt de la cour d’appel américaine sur les droits de douane de Trump pour la Suisse

Human Rights Benchmarking ou pourquoi la corruption est essentielle pour la conformité AML dans les institutions financières, les agences immobilières, ainsi que dans les procédures d’immigration et de citoyenneté

Compétences connexes

Retour en haut