1. Was sind die Regeln in der Schweiz?
Im Bereich der Künstliche Intelligenz (KI) gibt es in der Schweiz noch keine gesetzliche Dachlösung, es gibt eher eine gewisse Regulierung von Sektor zu Sektor in separaten Gesetzen. Zu nennen sind zum Beispiel die Leitlinien des Bundes zu KI, die Strategie Digitale Schweiz, der Bericht der interdepartementalen Arbeitsgruppe zu künstlicher Intelligenz (IDAG KI), sowie das Kompetenznetzwerk Künstliche Intelligenz des BFS (CNAI). Auch das revidierte Datenschutzgesetz deckt kritische Bereiche ab, in denen KI zur Anwendung kommt.
2. Was sind die Regeln in der Europäischen Union (EU)?
In der EU befindet sich umgekehrt das Gesetzgebungsverfahren zum «Artificial Intelligence Act» («AI Act»: Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtskader der Union ; nachfolgend «KI-Verordnung») auf der Zielgeraden. Der Entwurf wurde Mitte Juni 2023 (14. Juni) im Plenum des EU-Parlaments zur Abstimmung gekommen. Die europäischen Gesetzgeber haben sich im Juni 2023 auf strengere Änderungen geeinigt. So wurden im Juni Änderungen am Entwurf des Gesetzes über künstliche Intelligenz beschlossen, die nun ein Verbot des Einsatzes von KI-Technologie bei der biometrischen Überwachung und die Verpflichtung für generative KI-Systeme wie ChatGPT zur Offenlegung von KI-generierten Inhalten beinhalten.
Der AI Act wird voraussichtlich jedoch nicht vor Ende 2023 verabschiedet werden und damit frühestens Mitte 2024 in Kraft treten. Danach wird es eine zweijährige Umsetzungsfrist geben.
Selbst wenn es noch dauern wird, bis die Verordnung für (Schweizer) Unternehmen relevant sein wird, sollten sich diese mit dem aktuellen Entwurf vertraut machen.
3. Welche Auswirkungen auf die Schweiz sind durch die neuen EU-Regeln zu erwarten?
Die KI-Verordnung würde direkte extraterritoriale Wirkung entfalten: Anbieter·und Nutzer in der Schweiz wären an sie gebunden, wenn sie ihre Systeme in der EU anbieten oder das Ergebnis ihrer Systeme in der EU verwendet wird. Während es sich bei Anbieter regelmässig um private Unternehmen handeln wird, könnten als Nutzer nebst privaten auch öffentliche Stellen davon erfasst werden – nämlich dann, wenn sie Systeme einsetzen, deren Ergebnisse innerhalb der EU verwendet würden. Denkbar ist beispielsweise ein Chatbot, der auf einer Website der Schweizer Bundesverwaltung von in der EU wohnhaften Auslandschweizer zu Informationszwecken genutzt würde – auch dieser müsste demnach zukünftig die Transparenzpflichten gemäss Art. 52(1) KI-Verordnungsentwurf erfüllen. Eine Ausnahme sieht der Entwurf vor für Behörden, die KI-Systeme nutzen, wenn dies im Rahmen eines Übereinkommens mit der EU oder einem ihrer Mitgliedstaaten im Bereich Strafverfolgung und Justiz geschieht. Dies würde etwa eine Ausnahme bedeuten für schweizerische Behörden, die im Rahmen des Übereinkommens mit Europol KI-Systeme einsetzen.
Viele Schweizer KI-Anbieter werden ihre Produkte nicht nur für die Schweiz entwickeln, womit sich die neuen europäische Standards des AI Act auch in der Schweiz durchsetzen dürften.
4. Was ist der risikobasierte Ansatz der EU-Verordnung?
Kernelement des AI Act ist ein risikobasierter Ansatz, der anhand der potenziellen Fähigkeiten und Risiken verschiedene Auflagen und Verbote mit sich bringt. Je höher das Risiko eines KI-Systems für die Gesundheit, Sicherheit oder Grundrechte von Personen, desto strenger sind die regulatorischen Anforderungen. Im AI Act werden KI-Anwendungen somit in verschiedene Risikokategorien mit unterschiedlichen Konsequenzen eingeteilt.
5. Welche neuen Prinzipien der Künstlichen Intelligenz (KI) kommen hinzu?
Der Kompromisstext enthält mit Art. 4a sog. «General Principles applicable to all AI systems». Alle Akteure, die unter den AI Act fallen, sollen KI-Systeme und Foundation Models im Einklang mit den folgenden sechs «KI-Grundsätzen» entwickeln und einsetzen:
- Menschliches Handeln und Kontrolle: KI-Systeme sollen dem Menschen dienen und die Menschenwürde sowie persönliche Autonomie respektieren, und so funktionieren, dass sie von Menschen kontrolliert und überwacht werden können.
- Technische Robustheit und Sicherheit: Unbeabsichtigte und unerwartete Schäden sollen auf ein Mindestmass reduziert werden und KI-Systeme sollen im Falle von unbeabsichtigten Problemen robust sein.
- Datenschutz und Data Governance: KI-Systeme sollen im Einklang mit den datenschutzrechtlichen Vorschriften entwickelt und eingesetzt werden.
- Transparenz: Es muss eine Rückverfolgbarkeit und Erklärbarkeit möglich sein den und Menschen muss bewusst gemacht werden, dass sie mit einem KI-System interagieren.
- Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollen unterschiedliche Akteure einbeziehen und den gleichberechtigten Zugang, die Gleichstellung der Geschlechter und die kulturelle Vielfalt fördern, und umgekehrt diskriminierende Auswirkungen vermeiden.
- Soziales und ökologisches Wohlergehen: KI-Systeme sollen nachhaltig und umweltfreundlich sein sowie zum Nutzen aller Menschen entwickelt und eingesetzt werden.
LINDEMANNLAW berät Sie bei der Projektentwicklung Ihres KI-Produkts/Software zu den Auswirkungen bestehender regulatorischer und steuerlicher Vorschriften sowie bei der Analyse der zu treffenden Massnahmen im Vorgriff auf das Inkrafttreten neuer regulatorischer und steuerlicher Anforderungen.