vorheriges Dokument
nächstes Dokument

Künstliche Intelligenz und Datenökonomie

DatenschutzrechtDablanderOktober 2024

Auf Knopfdruck erzeugte Bilder, die Fotos zum Verwechseln ähnlich sehen. Risikoanalysen zur Priorisierung von Bedrohungen in der Cybersicherheit. Chatbots, Virtuelle Assistenten oder smarte Netzsteuerungselemente in der kritischen Infrastruktur – Künstliche Intelligenz (KI) wird in immer mehr Lebensbereichen eingesetzt und ist aus dem digitalen Zeitalter nicht mehr wegzudenken. Folgerichtig hat sich auch der europäische Gesetzgeber dem Thema gewidmet. 

Digitalisierung

Künstliche Intelligenz (KI) umfasst gemeinhin sämtliche Anstrengungen, deren Ziel es ist, Maschinen mit eigener Intelligenz zu versehen. Darunter versteht man die Fähigkeit, auf äußere Eindrücke adäquat zu reagieren, Informationen aufzunehmen, zu verarbeiten und dadurch real existierende Probleme zu lösen.11Mitteilung der Europäischen Kommission, 25. 4. 2018, Künstliche Intelligenz für Europa, COM/2018/237 final.  KI-Anwendungen bilden gewissermaßen die Speerspitze einer zunehmend digitalisierten Wirtschaftswelt und beschäftigen seit einiger Zeit auch die EU-Kommission, die sich mit der Digitalen Agenda 203022A digital future for Europe, Council of the European Union, 12. 6. 2022, Consilium (europa.eu) . das Ziel gesetzt hat, bei der Schaffung eines konsistenten Rechtsrahmens für Zukunftstechnologien eine weltweite Führungsrolle33Vgl dazu Emerging_Non-European_Monopolies_in_the_Global_AI_Market.pdf (futureoflife.org) . einzunehmen. Es verwundert also nicht, dass nach der Regulierung großer Onlineplattformen44Digital Services Act, VO (EU) 2022/2065 . und der Neuaufstellung digitaler Märkte55Digital Marcets Act, VO (EU) 2022/1925 . nunmehr auch KI und Datenökonomie in den Fokus des Europäischen Gesetzgebers gerückt sind.

Datenverarbeitung

Als Schlüsselressource66Bernard Marr, Forbes Magazine, Here's Why Data Is Not The New Oil (forbes.com) . von KI gelten Daten. Eine legislative Basis für den europaweiten Datenaustausch zur besseren Entwicklung von KI-Anwendungen bildet der Data Governance Act.77Regulation 2022/868/EU . Dieser ist seit 24.9.2023 unionsweit unmittelbar anwendbar und bildet gemeinsam mit dem Data Act88Regulation 2023/2854/EU . im Spannungsfeld zwischen Datenminimierung nach der DSGVO und dem Ziel Accessibility by Design99Konzept, wonach ein Digitalprodukt von möglichst vielen Anwendern gleichberechtigt genutzt werden kann. die Grundlage besserer Wettbewerbsbedingungen in der Datenökonomie.1010Zur Kritik aus der Industrie vgl Luca Bertuzzi, Industry readies to fight the Commission's Data Act proposal. Durch die Auswertung großer Datenmengen (Data Mining) und Generierung von Wissen aus Erfahrungswerten (Machine Learning) wird auf Algorithmen basierenden Systemen eine selbstständige Entscheidungsfindung ermöglicht.

Anwendungen wie Chat GPT1111Ebenso DuckAssist, Google Bard, JenniAI oÄ. haben medial einiges an Erstaunen ausgelöst1212Chat GPT-4, das neueste Modell von OpenAI, hat in jedem Fach das Niveau eines Stanford-Studenten, Opinion | This Changes Everything - The New York Times (nytimes.com) ., sind aber nur ein Vorgeschmack auf das, was künftig möglich sein wird1313Politico am 3. 3. 2023: ChatGPT broke the EU plan to regulate AI – POLITICO . – in der Analyse mathematischer und statistischer Berechnungen, als Entscheidungsunterstützung in juristischen Berufen oder für autonome virtuellen Agenten, die selbstständig Aktionen in einer realen Umgebung ausführen. Die KI-basierte Vernetzung von Maschinen zur Smart Factory kann getrost als vierte industrielle Revolution bezeichnet werden. Wegen der unglaublichen Geschwindigkeit des technischen Fortschritts ist auch Forschung zu wirtschaftlichen und gesellschaftlichen Auswirkungen von KI nötig.1414GPT-4 System Card, OpenAI, 15. 3. 2023.

Rechtliche Problemstellungen

Durch die vielfältigen Anwendungsmöglichkeiten sind auch unterschiedliche Rechtsmaterien betroffen. Bei den einleitend erwähnten Tools zur kreativen Bildgenerierung ergibt sich das Problem der urheberrechtlichen Einordnung. Eigentümliche geistige Schöpfungen sind geschützte Werke nach § 1 Abs 1 UrhG.1515Urheberrechtsgesetz, BGBl 1936/111. Da eine kreative Schöpfung aber nur Ergebnis einer menschlichen Tätigkeit sein kann, kommen Programme selbst nicht als Urheber in Frage. Anders ist die Frage des urheberrechtlichen Schutzes dagegen zu beurteilen, wenn ein Chatbot, basierend auf einer individuellen menschlichen Eingabe, einen Text erstellt. Ein Teil der Lehre vertritt die Ansicht, dass der Mensch hinter dem Programmcode als Urheber anzusehen ist. Schließlich basiert das Ergebnis der KI-Anwendung auf dessen individueller Programmierung. Fraglich ist, ob die unerlaubte Verwendung urheberrechtlich geschützter Werke zum Training einer Software Schadenersatzansprüche begründen kann. Ein explizites Widerspruchsrecht1616§ 42h Abs 6 UrhG. besteht schon jetzt für das Training in Form von Text- und Data-Mining.1717Urheberrechts-Richtlinie 2019/790/EU . Nach einer Leitlinie des US Copyright Office1818https://www.federalregister.gov/documents/2023/03/16/2023-05321/copyright-registration-guidance-works-containing-material-generated-by-artificial-intelligence . kann der Output generativer künstlicher Intelligenz nicht urheberrechtlich geschützt seien, sofern die Erstellung der Abfragen keine menschliche Kreativität erfordert. Das Konzept der Datenwürde1919https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai . unterscheidet implizit zwischen Training und Erzeugung von Arbeitsergebnissen. Nur das Erstellen neuer Ergebnisse kann danach eine Urheberrechtsverletzung verwirklichen.2020There Is No A.I. - ways of controlling the new technology; Jaron Lanier; 20.04.2023. Im E-Commerce werden schon seit längerem Automated-Pricing Systeme eingesetzt, wobei je Produkt ein individueller Preis pro Kunde errechnet wird. Zu beachten ist in diesem Kontext die Kennzeichnungspflicht dynamischer Preisfindungsprogramme im Fernabsatzgeschäft.2121§ 4 Abs 1 Z 4a FAGG.

Responsible AI

Ein häufig diskutiertes Problem im Einsatz KI-gesteuerter Systeme ist „Coded Bias“, also die (unbemerkte) Beeinflussung des Programmcodes im Entwicklungsstadium, welche später zu diskriminierenden Entscheidungen2222Vgl Schutz marginalisierter Personen vor Diskriminierung durch KI, Center for European Digital Rights: Civil society calls for the EU AI act to better protect people on the move - European Digital Rights (EDRi) . oder einer Verstärkung gesellschaftlicher Ungleichgewichte führt. Klassisches Beispiel wäre ein Recruiting-Algorithmus, der mit Bewerbungen der letzten 40 Jahre trainiert wurde und dadurch vermehrt sexistische Entscheidungen trifft. Tückisch ist dabei oft, dass derartige Inkonsistenzen erst spät auffallen.

Für die selbstbestimmte Einhaltung ethischer und moralischer Standards in der Entwicklung von KI-Systemen hat sich der Begriff Responsible AI2323Boston Consulting, Oktober 2022: How to Act Responsibly in Tight AI Regulations Era | BCG . etabliert. Ziel sind eine holistische Betrachtungsweise und vorausschauende Implementierung neuer Anwendungen, um unvorhergesehene Kollateralschäden2424Vgl Algorithmic Black Swans, Noam Kolt, 101 Wash. U.L. Rev. hintanzuhalten und Vertrauen in die Technologie zu stärken.

Haftung

Um eine effektive Rechtsdurchsetzung zu ermöglichen, normiert die geplante EU-Richtlinie zu Haftungsregeln für Künstliche Intelligenz2525Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz im Entwurfsstadium, COM(2022) 496 final vom 28.9.2022. eine Kausalitätsvermutung für Schadenersatzansprüche. Betroffene mussten bisher detailliert darlegen, wie ein Schaden durch Verschulden der Entwickler verursacht wurde. Das kann gerade bei komplexen Systeme schwierig sein. Mit dem Vorschlag geht die dahingehende Beweislast auf die Entwickler über. Die Richtlinie ist nach der Beschlussfassung in den europäischen Gremien in nationales Recht umzusetzen.

Cybercrime

Die Einsatzmöglichkeiten für Cyberkriminelle, sowohl, was Social Engineering2626Social Engineering ist eine Art Trickbetrug zum Zweck der Informationsbeschaffung, wobei Menschen psychologisch manipuliert werden, um vertrauliche Informationen preiszugeben. angeht, als auch in der Umgehung von Sicherheitsbarrieren wie Authentifizierungsverfahren durch das Klonen von Stimmen, sind enorm.2727Captcha Bypass-Dienste, Passwort-Cracker wie zB Sentry MBA oder neuronale Netze zur Analyse von Twitter-Feeds und automatisierten Versendung von Phishing-Nachrichten. KI-gestützte Software wird genutzt, um anfällige Hosts zu identifizieren oder Informationen für die Testung möglicher Exploits2828Lücken in der bestehenden Netzwerk-Sicherheitsarchitektur, die als Einfallstor für Cyberkriminelle dienen. zu sammeln. Durch Verwendung neuronaler Netzwerkmodelle kann Hacking-Leistung verbessert und skaliert werden. Ua durch Gamification-Strategien: Wenn Malware erfolgreich Wi-Fi-Anmeldeinformationen entschlüsselt, wird sie belohnt und lernt ihre Arbeitsweise selbstständig zu verbessern.2929Malicious Uses and Abuses of Artificial Intelligence, Trend Micro Research, United Nations Interregional Crime and Justice Research Institute (UNICRI), Europol’s European Cybercrime Centre (EC3).

AI-Act

Der europäische Gesetzgeber wählt deshalb in der Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz3030Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, COM(2021) 206 final. einen risikobasierten Ansatz. Danach findet eine Unterteilung in fünf Risikoniveaus statt. Anwendungen mit unannehmbarem Risiko sind generell verboten. Als Beispiel wären behördliche Systeme zur Massenüberwachung zu nennen, wobei auf Druck mehrerer Mitgliedsstaaten verschiedene Ausnahmen normiert wurden.3131https://www.derstandard.at/story/2000141596884/ai-act-eu-staaten-wollen-ausnahmen-fuer-massenueberwachung-durch-behoerden . Hohes Risiko führt zu verschiedenen Sorgfaltspflichten in der Anwendung3232Art 8 bis 15 der Verordnung EU COM(2021) 206 final., wie verpflichtenden Risikomanagementsystemen und detaillierten Anforderungen an Data Governance. Bei geringem oder minimalem Risiko bestehen dagegen kaum Einschränkungen. Nationale Behörden werden mit der Konformitätsbewertung betraut, bei der RTR GmbH wurde dazu bereits eine KI-Servicestelle eingerichtet.3333Rechtsgrundlage § 20c KOG und § 194a TKG 2021. Regelungen für verbotene KI-Systeme gelten ab dem 1.2.2025, die restlichen Bestimmungen sind ab 1.8.2026 unmittelbar anwendbar. Für Hochrisiko-KI-Systeme ist eine verlängerte Übergangsfrist von 36 Monaten vorgesehen.



Stichworte