Digitalisierung
Künstliche Intelligenz (KI) umfasst gemeinhin sämtliche Anstrengungen, deren Ziel es ist, Maschinen mit eigener Intelligenz zu versehen. Darunter versteht man die Fähigkeit, auf äußere Eindrücke adäquat zu reagieren, Informationen aufzunehmen, zu verarbeiten und dadurch real existierende Probleme zu lösen.1 KI-Anwendungen bilden gewissermaßen die Speerspitze einer zunehmend digitalisierten Wirtschaftswelt und beschäftigen seit einiger Zeit auch die EU-Kommission, die sich mit der Digitalen Agenda 20302 das Ziel gesetzt hat, bei der Schaffung eines konsistenten Rechtsrahmens für Zukunftstechnologien eine weltweite Führungsrolle3 einzunehmen. Es verwundert also nicht, dass nach der Regulierung großer Onlineplattformen4 und der Neuaufstellung digitaler Märkte5 nunmehr auch KI und Datenökonomie in den Fokus des Europäischen Gesetzgebers gerückt sind.
Datenverarbeitung
Als Schlüsselressource6 von KI gelten Daten. Eine legislative Basis für den europaweiten Datenaustausch zur besseren Entwicklung von KI-Anwendungen bildet der Data Governance Act.7 Dieser ist seit 24.9.2023 unionsweit unmittelbar anwendbar und bildet gemeinsam mit dem Data Act8 im Spannungsfeld zwischen Datenminimierung nach der DSGVO und dem Ziel Accessibility by Design9 die Grundlage besserer Wettbewerbsbedingungen in der Datenökonomie.10 Durch die Auswertung großer Datenmengen (Data Mining) und Generierung von Wissen aus Erfahrungswerten (Machine Learning) wird auf Algorithmen basierenden Systemen eine selbstständige Entscheidungsfindung ermöglicht.
Anwendungen wie Chat GPT11 haben medial einiges an Erstaunen ausgelöst12, sind aber nur ein Vorgeschmack auf das, was künftig möglich sein wird13 – in der Analyse mathematischer und statistischer Berechnungen, als Entscheidungsunterstützung in juristischen Berufen oder für autonome virtuellen Agenten, die selbstständig Aktionen in einer realen Umgebung ausführen. Die KI-basierte Vernetzung von Maschinen zur Smart Factory kann getrost als vierte industrielle Revolution bezeichnet werden. Wegen der unglaublichen Geschwindigkeit des technischen Fortschritts ist auch Forschung zu wirtschaftlichen und gesellschaftlichen Auswirkungen von KI nötig.14
Rechtliche Problemstellungen
Durch die vielfältigen Anwendungsmöglichkeiten sind auch unterschiedliche Rechtsmaterien betroffen. Bei den einleitend erwähnten Tools zur kreativen Bildgenerierung ergibt sich das Problem der urheberrechtlichen Einordnung. Eigentümliche geistige Schöpfungen sind geschützte Werke nach § 1 Abs 1 UrhG.15 Da eine kreative Schöpfung aber nur Ergebnis einer menschlichen Tätigkeit sein kann, kommen Programme selbst nicht als Urheber in Frage. Anders ist die Frage des urheberrechtlichen Schutzes dagegen zu beurteilen, wenn ein Chatbot, basierend auf einer individuellen menschlichen Eingabe, einen Text erstellt. Ein Teil der Lehre vertritt die Ansicht, dass der Mensch hinter dem Programmcode als Urheber anzusehen ist. Schließlich basiert das Ergebnis der KI-Anwendung auf dessen individueller Programmierung. Fraglich ist, ob die unerlaubte Verwendung urheberrechtlich geschützter Werke zum Training einer Software Schadenersatzansprüche begründen kann. Ein explizites Widerspruchsrecht16 besteht schon jetzt für das Training in Form von Text- und Data-Mining.17 Nach einer Leitlinie des US Copyright Office18 kann der Output generativer künstlicher Intelligenz nicht urheberrechtlich geschützt seien, sofern die Erstellung der Abfragen keine menschliche Kreativität erfordert. Das Konzept der Datenwürde19 unterscheidet implizit zwischen Training und Erzeugung von Arbeitsergebnissen. Nur das Erstellen neuer Ergebnisse kann danach eine Urheberrechtsverletzung verwirklichen.20 Im E-Commerce werden schon seit längerem Automated-Pricing Systeme eingesetzt, wobei je Produkt ein individueller Preis pro Kunde errechnet wird. Zu beachten ist in diesem Kontext die Kennzeichnungspflicht dynamischer Preisfindungsprogramme im Fernabsatzgeschäft.21
Responsible AI
Ein häufig diskutiertes Problem im Einsatz KI-gesteuerter Systeme ist „Coded Bias“, also die (unbemerkte) Beeinflussung des Programmcodes im Entwicklungsstadium, welche später zu diskriminierenden Entscheidungen22 oder einer Verstärkung gesellschaftlicher Ungleichgewichte führt. Klassisches Beispiel wäre ein Recruiting-Algorithmus, der mit Bewerbungen der letzten 40 Jahre trainiert wurde und dadurch vermehrt sexistische Entscheidungen trifft. Tückisch ist dabei oft, dass derartige Inkonsistenzen erst spät auffallen.
Für die selbstbestimmte Einhaltung ethischer und moralischer Standards in der Entwicklung von KI-Systemen hat sich der Begriff Responsible AI23 etabliert. Ziel sind eine holistische Betrachtungsweise und vorausschauende Implementierung neuer Anwendungen, um unvorhergesehene Kollateralschäden24 hintanzuhalten und Vertrauen in die Technologie zu stärken.
Haftung
Um eine effektive Rechtsdurchsetzung zu ermöglichen, normiert die geplante EU-Richtlinie zu Haftungsregeln für Künstliche Intelligenz25 eine Kausalitätsvermutung für Schadenersatzansprüche. Betroffene mussten bisher detailliert darlegen, wie ein Schaden durch Verschulden der Entwickler verursacht wurde. Das kann gerade bei komplexen Systeme schwierig sein. Mit dem Vorschlag geht die dahingehende Beweislast auf die Entwickler über. Die Richtlinie ist nach der Beschlussfassung in den europäischen Gremien in nationales Recht umzusetzen.
Cybercrime
Die Einsatzmöglichkeiten für Cyberkriminelle, sowohl, was Social Engineering26 angeht, als auch in der Umgehung von Sicherheitsbarrieren wie Authentifizierungsverfahren durch das Klonen von Stimmen, sind enorm.27 KI-gestützte Software wird genutzt, um anfällige Hosts zu identifizieren oder Informationen für die Testung möglicher Exploits28 zu sammeln. Durch Verwendung neuronaler Netzwerkmodelle kann Hacking-Leistung verbessert und skaliert werden. Ua durch Gamification-Strategien: Wenn Malware erfolgreich Wi-Fi-Anmeldeinformationen entschlüsselt, wird sie belohnt und lernt ihre Arbeitsweise selbstständig zu verbessern.29
AI-Act
Der europäische Gesetzgeber wählt deshalb in der Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz30 einen risikobasierten Ansatz. Danach findet eine Unterteilung in fünf Risikoniveaus statt. Anwendungen mit unannehmbarem Risiko sind generell verboten. Als Beispiel wären behördliche Systeme zur Massenüberwachung zu nennen, wobei auf Druck mehrerer Mitgliedsstaaten verschiedene Ausnahmen normiert wurden.31 Hohes Risiko führt zu verschiedenen Sorgfaltspflichten in der Anwendung32, wie verpflichtenden Risikomanagementsystemen und detaillierten Anforderungen an Data Governance. Bei geringem oder minimalem Risiko bestehen dagegen kaum Einschränkungen. Nationale Behörden werden mit der Konformitätsbewertung betraut, bei der RTR GmbH wurde dazu bereits eine KI-Servicestelle eingerichtet.33 Regelungen für verbotene KI-Systeme gelten ab dem 1.2.2025, die restlichen Bestimmungen sind ab 1.8.2026 unmittelbar anwendbar. Für Hochrisiko-KI-Systeme ist eine verlängerte Übergangsfrist von 36 Monaten vorgesehen.