Die hier aufgeworfenen Herausforderungen werden mit der zunehmenden Verbreitung von KI-Systemen und Robotern an Brisanz gewinnen. Dennoch verfügt derzeit kein einziges Land über ein Rechtssystem, welches den Besonderheiten Rechnung trägt. Viele Länder haben damit begonnen, Strategien zur Förderung, Entwicklung und Nutzung von KI-Systemen zu entwickeln. Dabei liegt der Schwerpunkt zumeist auf der Forschung und Entwicklung, der Wissenschaftsförderung oder der technischen Standardisierung oder der Schaffung ethischer Standards, weniger auf den rechtlichen Herausforderungen.
a. Nationale Strategien
Die Bundesregierung hat 2018 sowohl eine Datenethik-Kommission als auch einen Digitalrat geschaffen und ihre KI-Strategie verabschiedet. Mit dem Bundeshaushalt 2019 stellt der Bund in einem ersten Schritt insgesamt 500 Mio. Euro für 2019 und bis einschließlich 2025 insgesamt 3 Mrd. Euro für die Umsetzung der Strategie zur Verfügung. Bestehende Kompetenzzentren sollen für KI-Forschung überregional weiterentwickelt und mit weiteren einzurichtenden Zentren zu einem nationalen Netzwerk von mindestens zwölf Zentren und Anwendungshubs ausgebaut werden. Durch 100 zusätzliche neue Professuren sollen eine breite Verankerung der KI an Hochschulen abgesichert werden. Angebote zur Beratung von Mittelstand und zur ganzheitlichen Beratung und Förderung von Gründungen sollen ausgebaut und der Aufbau von KI Observatorien auf europäischer und internationaler Ebene forciert werden.
Zudem hat die Bundesregierung angekündigt, einen Runden Tisch mit Datenschutzaufsichtsbehörden und Wirtschaftsverbänden einzuberufen, um gemeinsam Leitlinien für eine datenschutzrechtskonforme Entwicklung und Anwendung von KI-Systemen zu erarbeiten, und Best-Practice-Anwendungsbeispiele aufbereiten. Außerdem hat der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potentiale“ eingesetzt.
Daneben gibt es auch in Deutschland zahlreiche Selbstregulierungsinitiativen: wie die Advocacy-Organisation AlgorithmWatch, die über die gesellschaftlichen Auswirkungen automatisierter Entscheidungsfindung aufklären und Lösungsstrategien entwickeln will oder die Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik (RAILS). Sie hat das Ziel, die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für Künstliche Intelligenz (KI) und Robotik in (rechts-)wissenschaftlicher Hinsicht mitzugestalten, regulatorischen Handlungsbedarf zu identifizieren und konkrete Handlungsempfehlungen zu erarbeiten.
b. Europäische Strategien
Auch auf europäischer Ebene kam es in den letzten zwei Jahren zu mehreren Initiativen. Das Europäische Parlament hat bereits Anfang 2017 eine Resolution mit Empfehlungen zu zivilrechtlichen Vorschriften im Bereich der Robotik veröffentlicht. Auch der Europäische Wirtschafts- und Sozialausschuss hat Ende Mai 2017 eine Stellungnahme zur KI vorgelegt hatte.
Die EU-Kommission hat 2018 zwei Mitteilungen vorgelegt, zunächst KI für Europa, COM(2018) 237 und einen weiteren Koordinierten Plan für KI, COM(2018) 795. Mit ihrem ersten Aufschlag stellte die EU-Kommission ein europäisches Konzept für KI vor, welches (1) die Förderung der technologischen und industriellen Leistungsfähigkeit der EU und die weitere Verbreitung von KI in der gesamten Wirtschaft, (2) die Vorbereitung auf sozioökonomische Veränderungen und (3) die Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens umfasst. Übergreifend sollen die privaten und öffentlichen Investitionen in KI von derzeit 4–5 Milliarden Euro pro Jahr bis Ende 2020 auf mindestens 20 Milliarden Euro pro Jahr gesteigert werden. Zum anderen hat die EU Kommission Mitte 2018 eine High-Level Group on Artificial Intelligence eingesetzt, die mit Unterstützung der European AI Alliance im April 2019 Ethikleitlinien für KI vorgelegt hat. Eine internationale Erweiterung dieses Pilotprojekts wurde angekündigt. Ebenso soll mit Hilfe weiterer Expertengruppen bis Mitte 2019 ein Leitfaden zur Auslegung der Produkthaftungsrichtlinie sowie einen Bericht über die Auswirkungen von KI auf den Haftungs- und Sicherheitsrahmen veröffentlicht werden.
c. Internationale Strategien
Die OECD-Mitglieder und sechs Partnerländer haben sich Ende Mai 2019 auf erste Grundsätze für den Umgang mit KI geeinigt. Danach soll sichergestellt werden, dass KI-Systeme stabil, sicher, fair und vertrauenswürdig arbeiten. Erarbeitet wurden die Grundsätze in einer Gruppe von über 50 Expertinnen und Experten aus Politik, Wissenschaft, Wirtschaft, Zivilgesellschaft, Technologie, Gewerkschaften und internationalen Gremien. Hieraus sollen in den kommenden Monaten praktische Leitlinien für die konkrete Umsetzung erarbeitet werden.
Vor allem auf internationaler Ebene sind in den letzten Jahren zahlreiche Initiativen, Firmenkonsortien und -allianzen oder private Institutionen entstanden, die es sich zur Aufgabe gemacht haben, ethische Prinzipien, best practices und Verhaltenskodizes für die Entwicklung und den Einsatz von KI-Systemen und Robotern zu entwickeln. Zu ihnen gehören “AI for Good”, das “AI Now Institute”, die “Association for Computing Machinery’s Committee on Professional Ethics”, das “Future of Life Institute”, Googles “AI Principles”, “The Institute of Electrical and Electronics Engineers (IEEE) Global Initiative on Ethics of Autonomous and Intelligent Systems”, “OpenAI”, das “Partnership on AI” sowie “The World Economic Forum’s Center for the Fourth Industrial Revolution”.