Special: Künstliche Intelligenz

5. Rechtliche Herausforderung der KI

Die Breite der Einsatzmöglichkeiten von KI-Technologien korrespondiert mit einer Vielzahl von Rechtsfragen, die z.T. ungeklärt sind, in diesem Kontext erstmals aufkommen oder die ggf. einer Neubewertung bedürfen. Hierzu gehören eine Reihe von Themenkomplexen, die hier nur kurz anhand von einschlägigen Fragen skizziert werden sollen.

a. Meinungsvielfalt und Meinungsfreiheit

Hier steht die Frage im Vordergrund, wie algorithmische Entscheidungsprozesse den gesellschaftlichen Diskurs beeinflussen und welche Gefahren von Filterblasen, Echokammern, Fake News und Social Bots für die Demokratie ausgehen? Bedürfen die Meinungsbildungsfreiheit und Meinungsfreiheit auf den neuen digitalen Marktplätzen einer (besseren) rechtlichen Absicherung?

b. Verantwortlichkeit und Haftung

Wenn intelligente Softwareprogramme von ihrer Umgebung lernen, sich dabei jedoch in unvorhersehbarer Weise verhalten, etwa einen Personenschaden verursachen oder sonstige Rechtsgüter, wie die Privatsphäre verletzen – wer haftet hierfür oder ist strafrechtlich verantwortlich? Aus Sicht des Anwenders spielt die Ausgestaltung des Haftungsrechts und die Anwendung grundsätzlicher Menschenrechte eine wichtige Rolle. Erfordert der Einsatz von KI-Systemen zur autonomen Steuerung von Maschinen und Fahrzeugen nicht beispielsweise auch eine spezifische Ausgestaltung der Produkthaftung?

c. Der Schutz des Verbrauchers

Wesentlich ist die Frage, inwieweit der Einsatz von KI-Systemen gegenüber Kunden zu einem Verlust der Privatautonomie führen kann? Welche Schutzinstrumente stehen zur Verfügung, wenn Kunden bzw. Verbraucher durch die Technik des Behavioral Microtargeting beeinflusst, manipuliert oder gar getäuscht (Deep Fakes) werden? Welche rechtlichen Rahmenbedingungen sollte der Gesetzgeber für digitale Agenten schaffen? Welche Vorkehrungen sind zu treffen, um einem gefährlichen Missbrauch von KI-Systemen grundsätzlich vorzubeugen?

d. Nutzung und Zugang zu Daten

Wem „gehören“ personenbezogene und nicht-personenbezogene Daten, die Algorithmen automatisch generieren und verwerten? Welche Rahmenbedingungen müssen vorliegen, um einen Wettbewerb um die besten KI-Systeme zu eröffnen und Monopole zu verhindern? Brauchen wir besondere Datenzugangsrechte? Welche (wettbewerbsrechtlichen) Maßnahmen müssen ergriffen werden, um ein kollusives Verhalten von KI-Systemen zu unterbinden?

e. Datenschutz

Ist das (europäische) Datenschutzrecht mit BigData und KI-Systemen noch ausreichend? Können Lösungen geschaffen werden, die auch datenintensive KI-Anwendungen ermöglichen, dabei jedoch das informationelle Selbstbestimmungsrecht jedes einzelnen Betroffenen respektieren.

f. Urheberrecht

Auch die Verwendung von urheberrechtlich geschützten Daten in KI-Systemen ist aktuell sehr problematisch. Muss der Ordnungsrahmen in Bezug auf die Nutzung von Daten in KI-Systemen angepasst werden oder kann eine offene Dateninfrastruktur eine zuverlässige und sichere Datenbasis schaffen. Brauchen wir neue Regeln für das Immaterialgüterrecht, um Algorithmen und computergenerierte Erfindungen zu schützen?

g. KI in der Entscheidungsfindung, Grundsatz der Diskriminierungsfreiheit

KI-Systeme spielen im Bereich der algorithmischen Entscheidungsfindung (Algorithmic Decision Making, ADM) eine zunehmend wichtige Rolle. Müssen für ihre Bewertung nicht Anforderungen und Kriterien transparent entwickelt und eingesetzt werden, um ungerechtfertigt diskriminierende Entscheidungen zu verhindern und Fehleinschätzungen zu korrigieren. Muss nicht eine eindeutige und rechtlich verbindliche Zuordnung von Verantwortung für Handlungen und Entscheidungen von KI-Systemen festgelegt werden? Das gilt insbesondere für Verwaltungshandeln und Entscheidungen des Staates: Dürfen Verbrechensbekämpfung oder die Rechtsdurchsetzung überhaupt an KI-Systeme delegiert werden? Wie lässt sich verhindern, dass Algorithmen den Einzelnen oder bestimmte Gruppen diskriminieren? Welche Rechte haben die Betroffenen, wenn ihnen ein Algorithmus basiertes Scoring existentielle Betätigungs- und Geschäftsfelder versagt? Inwieweit dürfen Arbeitgeber bei der Einstellung und Überwachung ihrer Arbeitnehmer auf KI-Systeme zurückgreifen?

h. Transparenz

Können Entscheidungsstrukturen in KI-Systemen transparent und nachvollziehbar dargestellt werden? Wäre der Einsatz von Verfahren zum Testen, der Auditierung oder Zertifizierung bei den genannten Entscheidungsverfahren sinnvoll, um zum Beispiel rechtsverletzende Diskriminierung zu adressieren. Können damit Transparenz und Erklärbarkeit der KI-Systeme erhöht werden, um das Black-Box-Problem zu bewältigen? Und wie können eine solche Offenheit gewährleistet und zugleich vertrauliche Daten geheim gehalten werden.

i. Rechtsfähigkeit

Ist es sinnvoll, einen Roboter oder ein KI-System für (teil-)rechtsfähig zu erklären? Welche vertragsrechtlichen Konsequenzen ergeben sich, wenn KI mit KI kontrahiert?

j. Selbstverpflichtungen und Standards

Ein weiterer Themenkomplex umfasst die Schaffung ethischer wie technischer Standards als auch Maßnahmen der Selbst- oder Ko-Regulierung bei der Entwicklung und Anwendung von KI. Wie kann den unterschiedlichen Anforderungen der verschiedenen Bereiche und Branchen Rechnung getragen werden?