1. Quelles sont les règles en Suisse ?
Dans le domaine de l’intelligence artificielle (IA), il n’existe pas encore de solution légale cadre harmonisée en Suisse, il existe plutôt une certaine réglementation secteur par secteur dans des textes séparés. On peut citer par exemple les lignes directrices de la Confédération sur l’IA, la stratégie Suisse numérique, le rapport du groupe de travail interdépartemental sur l’intelligence artificielle (IDAG KI), ainsi que le réseau de compétences en intelligence artificielle de l’OFS (CNAI). La loi révisée sur la protection des données couvre également des domaines critiques dans lesquels l’IA est utilisée.
2. Quelles sont les règles dans l’Union européenne (UE) ?
Inversement, dans l’UE, la procédure législative relative à l’ »Artificial Intelligence Act » se trouve dans la dernière ligne droite. Le projet a été soumis au vote en séance plénière du Parlement européen à la mi-juin 2023 (14 juin). Les législateurs européens se sont mis d’accord sur des modifications plus strictes en juin 2023. Ainsi, des amendements au projet de loi sur l’intelligence artificielle ont été adoptés en juin, qui incluent désormais l’interdiction d’utiliser la technologie de l’IA dans la surveillance biométrique et l’obligation pour les systèmes d’IA générative tels que ChatGPT de divulguer le contenu généré par l’IA.
Le règlement sur l’AI ne devrait toutefois pas être adopté avant fin 2023 et entrera donc en vigueur au plus tôt à la mi-2024. Il y aura ensuite une période de mise en œuvre (délai transitoire) de deux ans.
Même si cela prendra encore du temps avant que le règlement ne soit pertinent pour les entreprises (suisses), celles-ci devraient se familiariser avec le projet actuel.
3. Quel est l’impact des nouvelles règles de l’UE sur la Suisse ?
Le règlement sur l’IA aurait un effet extraterritorial direct : Les fournisseurs et les utilisateurs en Suisse seraient liés par le règlement s’ils proposent leurs systèmes dans l’UE ou si le résultat de leurs systèmes est utilisé dans l’UE. Alors que les fournisseurs sont généralement des entreprises privées, les utilisateurs pourraient être des organismes publics, en plus des entreprises privées, s’ils utilisent des systèmes dont les résultats sont utilisés dans l’UE. On peut par exemple imaginer un chatbot qui serait utilisé sur un site web de l’administration fédérale suisse par des Suisses de l’étranger résidant dans l’UE à des fins d’information – celui-ci devrait donc également remplir à l’avenir les obligations de transparence selon l’art. 52(1) du projet de règlement sur l’IA. Le projet prévoit une exception pour les autorités qui utilisent des systèmes d’IA lorsque cela se fait dans le cadre d’un accord avec l’UE ou l’un de ses États membres dans le domaine de la poursuite pénale et de la justice. Cela signifierait par exemple une exception pour les autorités suisses qui utilisent des systèmes d’IA dans le cadre de l’accord avec Europol.
De nombreux fournisseurs suisses d’IA ne développeront pas leurs produits uniquement pour la Suisse, ce qui devrait permettre aux nouvelles normes européennes de l’AI Act de s’imposer en Suisse également.
4. Qu’est-ce que l’approche fondée sur le risque du règlement de l’UE ?
L’élément central de l’AI Act est une approche basée sur les risques, qui implique différentes obligations et interdictions en fonction des capacités et des risques potentiels. Plus le risque d’un système d’IA pour la santé, la sécurité ou les droits fondamentaux des personnes est élevé, plus les exigences réglementaires sont strictes. Dans l’AI Act, les applications d’IA sont donc classées dans différentes catégories de risques avec des conséquences différentes :
5. Quels sont les nouveaux principes en matière d’intelligence artificielle (IA) ?
L’article 4a du texte de compromis contient ce que l’on appelle des « principes généraux applicables à tous les systèmes d’IA ». Tous les acteurs concernés par l’AI Act doivent développer et utiliser des systèmes d’IA et des modèles de fondation en accord avec les six « principes d’IA » suivants :
- Action et contrôle humains : les systèmes d’IA doivent être au service de l’homme, respecter la dignité humaine et l’autonomie personnelle, et fonctionner de manière à pouvoir être contrôlés et surveillés par l’homme.
- Robustesse technique et sécurité : les dommages involontaires et inattendus doivent être réduits au minimum et les systèmes d’IA doivent être robustes en cas de problèmes involontaires.
- Protection des données et gouvernance des données : les systèmes d’IA doivent être développés et utilisés conformément à la législation sur la protection des données.
- Transparence : la traçabilité et l’explicabilité doivent être possibles et les personnes doivent être conscientes qu’elles interagissent avec un système d’IA.
- Diversité, non-discrimination et équité : les systèmes d’IA doivent impliquer différents acteurs et promouvoir l’égalité d’accès, l’égalité des sexes et la diversité culturelle, et inversement, éviter les effets discriminatoires.
- Bien-être social et environnemental : Les systèmes d’IA doivent être durables et respectueux de l’environnement, et être développés et utilisés dans l’intérêt de tous les êtres humains.
LINDEMANNLAW vous conseille sur l’impact des règles réglementaires et fiscales existantes pendant le développement de votre produit/logiciel d’IA et l’analyse des mesures à prendre en prévision de l’entrée en vigueur de nouvelles exigences réglementaires et fiscales.