1. Der Einsatz von KI wird alltäglich
KI hat längst in unser Leben Einzug gehalten. Für Verbraucher erleichtern mobile Geräte, Web-Suchmaschinen, Sprachassistenten oder intelligente Haushaltsgeräte den Alltag. Algorithmen können Schrift, Sprache oder Muster fast so gut erkennen wie Menschen, viele Aufgaben wesentlich besser lösen. So spielt KI in der Forschung beim Erkennen von Zusammenhängen eine zunehmend wichtige Rolle. Das gilt insbesondere im Gesundheitswesen, der medizinischen Diagnostik oder Vorsorge. Medien nutzen KI zur Analyse von Daten, für das Erstellen von Grafiken oder gar Texten. In Produktionsumgebungen ersetzen Roboter eine Unzahl menschlicher Handgriffe. Fertigungsabläufe werden durch die Vernetzung von Maschinen, Schnittstellen und Bauteile weiter optimiert, Kosten- und Zeit gespart und die Wirtschaftsleistung gesteigert. Die größten Zuwächse durch KI werden in der IT- und Finanzbranche, im Bereich Telekommunikation und im produzierenden Gewerbe erwartet. Aktuellen Prognosen zufolge soll der KI-Markt von 8 Mrd. US-Dollar in 2016 auf 47 Mrd. US-Dollar in 2020 ansteigen.
Glaubt man Forschern, Entwicklern und Anbietern ist dies erst der Beginn einer flächendeckenden Nutzung von KI. Wirtschaft und Gesellschaft stehen vor einem historischen Umbruch. Die durch KI einhergehenden Veränderungen werden fundamental und unumkehrbar sein. Neben den genannten Erleichterungen und der Schaffung von mehr Komfort für den einzelnen, wird KI aber auch Auswirkungen auf unser soziales Miteinander, den gesellschaftlichen Zusammenhalt und unsere Rechtsordnung haben.
Die wissenschaftliche und politische Diskussion dreht sich daher nicht nur um die Förderung und Entwicklung von KI-Technologien als entscheidenden Wettbewerbsfaktor. Vielmehr wird auch die Etablierung verbindlicher rechtlicher wie ethischer Standards bei der Konstruktion und dem Einsatz intelligenter Systeme und Algorithmen diskutiert. Um der Risiken habhaft zu werden, fordern selbst namhafte Vertreter großer Tech-Unternehmen heute die Regulierung von KI.
Dieser und die folgenden Beiträge sollen dem Leser einen Einblick in die Welt der KI gewähren, Anwendungsbereiche aber auch die Herausforderungen aufzeigen, die mit dem Einsatz von KI einhergehenden. Ausgewählte rechtliche Fragestellungen werden Schwerpunkt einer sich anschließenden Reihe von Special Beiträgen sein, die sich u.a. mit Fragen zum Umgang und zur Kommerzialisierung (persönlicher) Daten und dem Einsatz von KI in bestimmten Bereichen auseinandersetzen.
2. Was verstehen wir unter KI?
KI umfasst weit mehr als reine Informatik, sie wird vielmehr durch die Neurowissenschaften, Psychologie, Mathematik, Philosophie, Kommunikationswissenschaften und auch der Linguistik geprägt. Die Informatik ist Mittel zum Zweck, welche die unterschiedlichen Aspekte der genannten Forschungsfelder zusammenbringt und deren Umsetzung und Erprobung ermöglicht. Auch wenn es keine allgemeingültige bzw. von allen Akteuren konsistent genutzte Definition von KI gibt, so wird der Begriff dennoch in Forschung und Entwicklung verwendet.
a. Definition von KI
KI umfasst die Automatisierung intelligenten Verhaltens und das Maschinelle Lernen. Sie simuliert menschliche Intelligenz mit Maschinen, insbesondere Computersystemen. Dies umfasst das Lernen, also die Erfassung von Informationen und Regeln für die Verwendung der Informationen, die Schlussfolgerung, also die Verwendung der Regeln, um ungefähre oder endgültige Schlussfolgerungen zu ziehen sowie die Selbstkorrektur. KI ist also der Versuch, Entscheidungsstrukturen des Menschen nachzubilden.
Eine derzeit gängige Art der Kategorisierung ist die Unterteilung in die sog. „schwache“ und „starke“ KI.
Die „schwache“ KI wird zur Lösung konkreter Anwendungsprobleme entwickelt und trainiert, wobei die entwickelten Systeme zur Selbstoptimierung fähig sind. Virtuelle persönliche Assistenten, wie Siri von Apple, sind eine Form der schwachen KI. Dazu werden auch Aspekte menschlicher Intelligenz nachgebildet und formal beschrieben bzw. Systeme zur Simulation und Unterstützung menschlichen Denkens konstruiert.
„Starke“ KI ist heute noch Vision. Sie ist auch bekannt als allgemeine KI, also ein System mit verallgemeinerten menschlichen kognitiven Fähigkeiten, welches - mit einer unbekannten Aufgabe konfrontiert - über genügend Intelligenz verfügt, um eine Lösung zu finden.
b. Funktionsweise von KI
KI kann rein softwarebasiert arbeiten (z.B. bei Suchmaschinen) oder in Hardware integriert sein (z.B. in Robotern). Sie umfasst ein umfangreiches Set an Methoden, Verfahren und Technologien. Kern eines jeden KI-Systems ist ein sogenanntes Modell, das für eine bestimmte Fragestellung modelliert ist, z.B. um bei bestimmten Entscheidungen zu unterstützen oder Vorhersagen zu treffen. Eine KI ist immer nur so gut, wie die Art ihrer technischen Wissensrepräsentation. Hierbei gibt es zwei grundlegende methodische Ansätze, die symbolverarbeitende und die neuronale KI.
Die symbolische KI gilt als der klassische Ansatz. Dieser beruht auf der Idee, dass menschliches Denken unabhängig von konkreten Erfahrungswerten von einer übergeordneten logisch-begrifflichen Ebene her rekonstruiert werden kann (Top-down-Ansatz). Wissen wird demnach in abstrakten Symbolen repräsentiert, wozu auch die Schrift- und Lautsprache gehören. Maschinen lernen diese Symbole auf Basis von Algorithmen zu erkennen, zu verstehen und zu verwenden. Das intelligente System bezieht seine Informationen dabei aus sogenannten Expertensystemen. In diesen werden die Symbole und Informationen auf eine spezifische Art sortiert – meistens in logischen „Wenn-Dann-Beziehungen“. Das intelligente System kann auf diese Wissensdatenbanken zugreifen und die dort hinterlegten Informationen mit seinem Input vergleichen.
Klassische Anwendungen der symbolischen KI sind die Textverarbeitung und Spracherkennung, aber auch andere logische Disziplinen wie die Beherrschung eines Schachspiels zu finden. Expertensysteme sind fast immer beschränkt auf ein Spezialgebiet, z. B. einen speziellen Bereich der Medizin. Die Leistung symbolischer KI steht und fällt mit der Qualität der Expertensysteme. Heute zeichnen sich jedoch immer deutlicher die Grenzen der symbolischen KI ab. Denn egal, wie komplex das Expertensystem ist, die symbolische KI bleibt verhältnismäßig unflexibel. Mit Ausnahmen, Variation oder unsicherem Wissen kann das streng regelbasierte System nur schwer umgehen. Außerdem ist die symbolische KI zu selbstständigem Wissenserwerb nur sehr begrenzt fähig.
Die neuronale (auch: konnektionistische oder subsymbolische) KI verabschiedet sich vom Prinzip der symbolischen Wissensrepräsentation. Ähnlich wie beim menschlichen Gehirn wird das Wissen stattdessen in winzige Funktionseinheiten, sog. Künstliche Neurone, segmentiert. Die Informationsverarbeitung erfolgt „bottom-up“ über einzelne künstliche Neurone, die sich in größeren Gruppen anordnen und gemeinsam ein künstliches neuronales Netzwerk bilden. Diese unzähligen künstlichen Neuronen sind in Schichten übereinander platziert und über simulierte Leitungen miteinander verbunden.
Die oberste Schicht oder Input-Schicht funktioniert wie ein Sensor: Sie nimmt den Input – etwa Text, Bilder oder Geräusche – in das System auf. Von dort aus wird der Input nach bestimmten Mustern durch das Netzwerk gereicht und mit bisherigem Input verglichen. Über die Input-Schicht wird das Netzwerk also gefüttert und trainiert. Die tiefste Schicht oder Output-Schicht dagegen hat meist nur wenige Neuronen – eines für jede zu klassifizierende Kategorie. Soll ein neuronales Netz also beispielsweise Bilder einer Kategorie Hund erkennen oder die Rasse bestimmen, dann werden zunächst viele unterschiedliche, vordefinierte Bilder eingespeist, bei dem die KI hinterher prüfen kann, ob sie mit ihrer Analyse richtig lag oder nicht.
Neuronale Netze werden also mit Trainingsdaten in unterschiedlichen Lernverfahren gefüttert. Gegenwärtig befinden sich vor allem tiefe neuronale Netze in der Anwendung, was bedeutet, dass sie mit mehr als den genannten zwei Schichten arbeiten (sog. „Deep Learning“). Die Zwischenschichten liegen hierarchisch übereinander – in manchen Systemen werden Informationen über Millionen von Verbindungen nach oben gereicht, wobei von Schicht zu Schicht immer komplexere Strukturen erkannt werden.
Die überwältigende Mehrzahl der jüngsten KI-Erfolge gehen auf das Konto solcher neuronalen Netzwerke. In der Innovationsforschung und Wirtschaft setzt man trotz der zum Teil sehr zeitaufwendigen Verfahren auf die außerordentlichen Leistungen dieser selbstlernenden Systeme – sei es bei der Sprach- oder Gesichtserkennung oder beim autonomen Fahren.
Diese sehr dynamische, anpassungsfähige und vielversprechendste Disziplin des maschinellen Lernens erreichet jedoch schnell ein Level an Komplexität, bei dem selbst die IT-Wissenschaftler, die die Netze entwickeln, nicht mehr genau sagen können, wie die KI letztlich auf ein bestimmtes Ergebnis gekommen ist („Black-Box“-Phänomen). Das löst insbesondere bei Kritikern von KI Unbehagen aus.
c. Entwicklung der KI
Einer der wichtigsten Visionäre und Theoretiker war der britische Mathematiker Alan Turing (1912-1954). Bereits 1936 bewies er, dass eine universelle Rechenmaschine (sog. „Turing-Maschine“) fähig sei, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar - also in endliche wohldefinierte Einzelschritte zerlegbar - können diese auf einer solchen Maschine ausgeführt werden.
Turing wird aber auch wegen einer anderen Idee viel zitiert: In seinem berühmten Artikel "Computing Machinery and Intelligence" aus 1950 beschreibt er in dem sog. „Turing Test“. Danach ist einer Maschine dann KI zuzuschreiben, wenn ein menschlicher Gesprächspartner in einer Unterhaltung über eine elektrische Verbindung nicht eindeutig identifizieren kann, ob sein Gegenüber Mensch oder Maschine ist. Der Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Erfasst wird nur das reine Denken.
Der eigentliche Begriff wurde 1956 von John McCarthy, einem amerikanischen Informatiker anlässlich der Dartmouth Conference geprägt, wo er mit Vertretern verschiedener Disziplinen (Computerexperten, Informationstheoretiker, Linguisten) neue Methoden der Computerprogrammierung diskutierte. Sie waren ebenfalls der Auffassung, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. McCarthy schlug dafür den Begriff „Künstliche Intelligenz“ vor. Mit „Logic Theorist“ gelang es den Forschern damals, mehrere Dutzende mathematische Lehrsätze zu beweisen und das erste KI-Programm der Welt zu schreiben.
Zwar wurden in der Folgezeit weitere Programme wie z. B. auch der erste „Chatbot“ „ELIZA“ vom Informatiker Joseph Weizenbaum erfunden: erstmals wurde es möglich, Maschinen eine Form des strukturellen Denkens beizubringen und diese zur Lösung von Problemen zu nutzen. Aber wesentliche Fortschritte oder gar der große Wurf blieben aus. In der Folgezeit spricht man daher auch vom sog. KI-Winter. Aufgrund der ausbleibenden Erfolge wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt und die Forscher zogen sich zurück und agierten in Spielzeugwelten ohne praktischen Nutzen.
Erst 1996 erreichte die KI den größten Durchbruch - zumindest in der öffentlichen Wahrnehmung - als es IBM gelang, mit dem Computer Deep Blue den Weltmeister Garri Kasparow in seiner Königsdisziplin Schach zu schlagen.
Ein weltweiter KI-Boom ist seit etwa 2010 zu verzeichnen. Technologiesprünge bei der Hard- und Software haben der KI den Weg in das tägliche Leben gebahnt. Für den Siegeszug von KI sind vor allem mehr Daten, billigere Speicherkapazitäten und eine ständig höhere Rechenleistung verantwortlich. Sie ermöglichen es Unternehmen, KI-Verfahren in immer komplexeren Konfigurationen einzusetzen. Leistungsstarke Prozessoren und Grafikkarten in Computern, Smartphones und Tablets ermöglichen es auch Verbrauchern auf KI-Programme zuzugreifen. Insbesondere Sprachassistenten erfreuen sich großer Beliebtheit: Apples „Siri“ kommt 2011 auf den Markt, 2014 stellt Microsoft die Software „Cortana“ vor und Amazon präsentiert 2015 Amazon Echo mit dem Sprachdienst „Alexa“.
3. Anwendungsbereiche und Beispiele von KI
Es gibt zahlreiche Anwendungsbereiche künstlich intelligenter Systeme in der Forschung und im wirtschaftlichen Bereich. Zu diesen intelligenten Systemen werden u.a. sog. Deduktionssysteme bzw. maschinelles Beweisen, wissensbasierte Systeme (sog. „Expertensysteme“), Musteranalyse und Mustererkennung, die autonome Steuerung von Robotik-Systemen sowie intelligente multimodale Mensch-Maschine-Interaktion (z.B. das Analysieren und Verstehen von Sprache, Bildern oder Gestik) gezählt. Diese Systeme finden in den unterschiedlichsten Bereichen Einsatz.
a. KI in Unternehmen
Heute übernehmen intelligente Systeme und Roboter immer umfassendere Aufgaben und Prozesse, z.B. in der Fertigung oder Logistik. Machine-Learning-Algorithmen werden in Analyse- und CRM-Plattformen integriert, um Kunden besser zu bedienen. Im Marketing wird KI eingesetzt, um Werbe-Emails zu verschicken, den Kundendienst durch Social Bots und Chatbots abzulösen, um Analysen und Prognosen des Markts und des Kunden, beispielsweise auf Basis von Big Data, durchzuführen und kundenspezifische Werbeanzeigen, Empfehlungen und Suchergebnisse zu entwickeln. Auch die Personalsuche und die Automatisierung von Stellenangeboten ist zunehmend eine realistische Option.
KI und Machine Learning Systeme werden auch in der Medienbranche beispielsweise zum automatisierten Verfassen von Artikeln, zum Aufspüren von Fake News, zum Erkennen von Video-Streams sowie bei der Individualisierung von Inhalten einsetzt. Auch wenn der sog. Roboter-Journalismus noch in den Kinderschuhen steckt, so können heute aus riesigen Mengen strukturierter Daten fertige Texte generieren werden, wie es bei Wetterberichten oder Spielberichten im Fußball schon der Fall ist. Über kurz oder lang wird KI für einen Großteil der veröffentlichten Nachrichten verantwortlich sein.
b. KI im Gesundheitswesen
KI wird immer häufiger im medizinischen Bereich eingesetzt. Sei es bei der Auswertung von Daten, dem Erkennen von Mustern oder dem Abgleich von Symptomen. KI kann helfen, Krankheiten zu diagnostizieren, insbesondere solche, die durch eine hohe Anzahl verschiedenster Symptome nur schwer zu erkennen sind. Je mehr Informationen vorhanden sind, umso höher wird die Erfolgsquote und desto geringer die Fehlanalysen. Durch die Datenanalyse und den Datenabgleich mithilfe von Daten ähnlicher Patienten wird es einfacher, den richtigen Behandlungsplan zu entwerfen. Ein weiteres wichtiges Einsatzgebiet für lernfähige Systeme ist die Labormedizin, wo KI durch Analysieren und Auswerten großer Datenmengen bei der Medikamentenentwicklung Kosten und Zeit erspart.
c. KI im im Finanzwesen
KI ist in Finanzinstituten im Aufwind. KI-Finanzanwendungen können zum Beispiel personenbezogene Daten sammeln und finanzielle Beratung bieten. So können die Analyse und Prognose von Aktienkursentwicklungen durch künstliche neuronale Netze unterstützt werden. Eine Software führt heute schon einen Großteil des Handels an der Wall Street durch.
d. KI in Computer- und Gesellschaftsspielen
In Strategie-Brettspielen kommt KI als Ersatz für den menschlichen Partner zum Einsatz. Gegen sehr leistungsfähige Versionen dieser Programme haben auch Weltmeister kaum mehr Gewinnchancen.
Auch in Computerspielen steuert KI z.B. Bots, sogenannte Nicht-Spieler-Charaktere, die menschenähnliches Verhalten simulieren oder berechnet bestimmte Funktionen des Spielecharakters. KIs treten anstelle eines menschlichen Spielers in Videospielen wie Jump ’n’ Runs, Rollen- oder Rennspielen steuern. Realismus und Gameplay eines Computerspiels werden oft an der eingesetzten KI gemessen. Ähnlich ist die Entwicklung im E-Sport-Bereich, in dem Profigamer versuchen, die besten KIs zu schlagen, während Entwickler darauf hinarbeiten, die besten Spieler durch eine KI zu besiegen.
e. KI in der zivilen Sicherheit
Autonome und teilautonome Systeme können Einsatzkräfte in der zivilen Sicherheit unterstützen und in gefährlichen Situationen ersetzen. Roboter sollen vor allem in kritischen, menschenfeindlichen Umgebungen eingesetzt werden, um beispielsweise Unfälle in Chemieanlagen zu bekämpfen oder nach einem Erdbeben in den Menschen gefährdenden Situationen die Standfestigkeit von Gebäuden zu überprüfen. Weitere Anwendungsmöglichkeiten in diesem Bereich betreffen das Erkennen von manipulierten bzw. automatisch generierten Inhalten im Kontext der Cybersicherheit. Kritisch gesehen wird hingegen der recht fortgeschrittene Einsatz von KI zu militärischen Zwecken, insbesondere der Einsatz autonomer Waffen.
4. Chancen und Risiken der KI
Die intelligente Technik löst sehr unterschiedliche Reaktionen vom blindem Fortschrittsoptimismus bis hin zu schlichter Technikverweigerung aus. Für eine Vielzahl von Anwendungen stellt sich die Technologie als „Black-Box“ dar: Es ist für Nutzer, Betroffene und oftmals selbst für die Experten nicht nachvollziehbar oder ausreichend transparent, wie das KI-System zu Entscheidungen oder Ergebnissen gekommen ist. Erklärbarkeit und Transparenz von KI sind für viele aber der Schlüssel für das Vertrauen in die KI.
Zudem gibt es positive und negative Zukunftsprognosen darüber, wie diese neuen Technologien unser Leben verändern werden. Welche Chancen und Risiken sind also mit künstlicher Intelligenz verbunden?
KI verspricht vor allem Wirtschaftswachstum und Effizienzgewinne quer durch alle Branchen. Wichtige Vorteile der Technologie betreffen die Arbeitswelt. KI könnte für wertvolle neue Arbeitsplätze und Arbeitserleichterung sorgen und insgesamt einen wirtschaftlichen Aufschwung und damit ein Mehr an allgemeinem Wohlstand bedeuten. Es werden einschneidende Auswirkungen auf den Arbeitsmarkt erwartet, auch wenn sich gegenwärtig die Folgen für den Arbeitsmarkt noch nicht eindeutig abschätzen ließen. Eine Abkehr von traditioneller Lohnarbeit, die Schaffung von Grundeinkommen und mehr Freizeit für den Menschen werden angeführt und diskutiert.
Durch KI-getriebene Datenwissenschaft ist es möglich geworden, in großen Datenmengen („Big Data“) Muster, Untergruppen und Zusammenhänge zu erkennen, was neue Anwendungspotenziale gerade bei personenbezogenen Daten eröffnet.
Hinzu kommt, dass jede technische Neuerung mehr Komfort im Alltag bringt und zur Entlastung des Verbrauchers führt. Das bezieht sich auf das selbstfahrende Auto genauso wie auf die intelligente Übersetzungs-Software.
Auch bei Aufgaben von öffentlichem Nutzen hat KI erhebliche Vorteile – schließlich haben Maschinen eine geringere Fehlerquote als Menschen, und ihre Leistungsfähigkeit ist enorm. Insbesondere im Gesundheitswesen und in der Justiz bewertet man die große Vielseitigkeit intelligenter Maschinen als vielversprechend. Es ist zu vermuten, dass mit dem Fortschritt der Technik sich auch die Einsatzbereiche künstlicher Intelligenz dort weiter ausdehnen.
Aber alle die genannten Vorteile haben meist eine Kehrseite. Prominente Experten wie der verstorbene Physiker Stephen Hawking oder Silicon-Valley-Ikone Elon Musk warnen eindringlich auch vor den Risiken von KI.
Sieht man von dem derzeit entfernt zu sein scheinenden Risiko der Abschaffung der Menschen durch eine „Superintelligenz“ ab, so bleiben doch auch im Bereich der bereits heute eingesetzten schwachen KI eine Reihe von Risiken bestehen die nicht nur Skeptiker auf den Plan rufen.
Hierzu gehören die schleichende und wachsende Abhängigkeit des Menschen von technologischen Systemen, sei es in der medizinischen Versorgung, beim Einsatz von Pflegerobotern, persönlichen Assistenten oder intelligente Algorithmen im Netz. Kritiker führen an, dass der Mensch zunehmend seine Privatheit und Selbstbestimmung aufgibt. Hinzukommt das Sammeln und Auswerten von immer mehr Trainingsdaten zur genaueren Auswertung und Kommerzialisierung durch die Unternehmen. Dies birgt die Gefahr der Schaffung von Monopolen auf Daten und Inhalten. Die Weiterverarbeitung von Daten durch KI-Technologien wird für Verbraucher immer schwerer nachzuvollziehen und zu überwachen, so der Tenor der Kritiker. Stattdessen hätten Unternehmen und Experten mit dem entsprechenden technischen Know-how die alleinige Kontrolle.
Ein weiteres Risiko liegt in der zunehmenden Personalisierung von Inhalten und Informationen. Es entstehen Filter- oder Informationsblasen die das „Weltbild“ des einzelnen immer enger werden lassen, was die selektive Wahrnehmung und damit eine wachsende „ideologische Distanz zwischen Individuen“ fördere. Hinzu käme das Risiko der Beeinflussung der Meinungsbildung: KI, die ihre Nutzer bis ins Detail kenne, oder der Einsatz von Social Bots, könnten die öffentliche Haltung beeinflussen.
Auch Algorithmen sind keine Garantie für Diskriminierungsfreiheit: Künstliche Technik liefert im Vergleich zum Menschen zwar häufiger neutralere Ergebnisse, doch immer wieder zeigt KI-Technik auch Voreingenommenheit gegenüber Geschlecht oder Herkunft von Personen. Noch schwieriger wird es, wenn Algorithmen Entscheidungen z. B. über eine Kreditvergabe treffen sollen oder wenn Rechenverfahren die Rückfälligkeitswahrscheinlichkeit von jugendlichen Kriminellen vorhersagen.
Ein anderes gewichtiges Risiko künstlicher Intelligenz bezieht sich auf ihren Einsatz in der Kriegsführung. Bereits 2015 warnten hunderte KI-Forscher und Wissenschaftler vor KI-gestützten autonomen Waffensystemen. Unter den Unterzeichnern waren Stephen Hawking und Elon Musk, aber auch Apple-Mitbegründer Steve Wozniak oder DeepMind-Mitbegründer Demis Hassabis.
5. Rechtliche Herausforderung der KI
Die Breite der Einsatzmöglichkeiten von KI-Technologien korrespondiert mit einer Vielzahl von Rechtsfragen, die z.T. ungeklärt sind, in diesem Kontext erstmals aufkommen oder die ggf. einer Neubewertung bedürfen. Hierzu gehören eine Reihe von Themenkomplexen, die hier nur kurz anhand von einschlägigen Fragen skizziert werden sollen.
a. Meinungsvielfalt und Meinungsfreiheit
Hier steht die Frage im Vordergrund, wie algorithmische Entscheidungsprozesse den gesellschaftlichen Diskurs beeinflussen und welche Gefahren von Filterblasen, Echokammern, Fake News und Social Bots für die Demokratie ausgehen? Bedürfen die Meinungsbildungsfreiheit und Meinungsfreiheit auf den neuen digitalen Marktplätzen einer (besseren) rechtlichen Absicherung?
b. Verantwortlichkeit und Haftung
Wenn intelligente Softwareprogramme von ihrer Umgebung lernen, sich dabei jedoch in unvorhersehbarer Weise verhalten, etwa einen Personenschaden verursachen oder sonstige Rechtsgüter, wie die Privatsphäre verletzen – wer haftet hierfür oder ist strafrechtlich verantwortlich? Aus Sicht des Anwenders spielt die Ausgestaltung des Haftungsrechts und die Anwendung grundsätzlicher Menschenrechte eine wichtige Rolle. Erfordert der Einsatz von KI-Systemen zur autonomen Steuerung von Maschinen und Fahrzeugen nicht beispielsweise auch eine spezifische Ausgestaltung der Produkthaftung?
c. Der Schutz des Verbrauchers
Wesentlich ist die Frage, inwieweit der Einsatz von KI-Systemen gegenüber Kunden zu einem Verlust der Privatautonomie führen kann? Welche Schutzinstrumente stehen zur Verfügung, wenn Kunden bzw. Verbraucher durch die Technik des Behavioral Microtargeting beeinflusst, manipuliert oder gar getäuscht (Deep Fakes) werden? Welche rechtlichen Rahmenbedingungen sollte der Gesetzgeber für digitale Agenten schaffen? Welche Vorkehrungen sind zu treffen, um einem gefährlichen Missbrauch von KI-Systemen grundsätzlich vorzubeugen?
d. Nutzung und Zugang zu Daten
Wem „gehören“ personenbezogene und nicht-personenbezogene Daten, die Algorithmen automatisch generieren und verwerten? Welche Rahmenbedingungen müssen vorliegen, um einen Wettbewerb um die besten KI-Systeme zu eröffnen und Monopole zu verhindern? Brauchen wir besondere Datenzugangsrechte? Welche (wettbewerbsrechtlichen) Maßnahmen müssen ergriffen werden, um ein kollusives Verhalten von KI-Systemen zu unterbinden?
e. Datenschutz
Ist das (europäische) Datenschutzrecht mit BigData und KI-Systemen noch ausreichend? Können Lösungen geschaffen werden, die auch datenintensive KI-Anwendungen ermöglichen, dabei jedoch das informationelle Selbstbestimmungsrecht jedes einzelnen Betroffenen respektieren.
f. Urheberrecht
Auch die Verwendung von urheberrechtlich geschützten Daten in KI-Systemen ist aktuell sehr problematisch. Muss der Ordnungsrahmen in Bezug auf die Nutzung von Daten in KI-Systemen angepasst werden oder kann eine offene Dateninfrastruktur eine zuverlässige und sichere Datenbasis schaffen. Brauchen wir neue Regeln für das Immaterialgüterrecht, um Algorithmen und computergenerierte Erfindungen zu schützen?
g. KI in der Entscheidungsfindung, Grundsatz der Diskriminierungsfreiheit
KI-Systeme spielen im Bereich der algorithmischen Entscheidungsfindung (Algorithmic Decision Making, ADM) eine zunehmend wichtige Rolle. Müssen für ihre Bewertung nicht Anforderungen und Kriterien transparent entwickelt und eingesetzt werden, um ungerechtfertigt diskriminierende Entscheidungen zu verhindern und Fehleinschätzungen zu korrigieren. Muss nicht eine eindeutige und rechtlich verbindliche Zuordnung von Verantwortung für Handlungen und Entscheidungen von KI-Systemen festgelegt werden? Das gilt insbesondere für Verwaltungshandeln und Entscheidungen des Staates: Dürfen Verbrechensbekämpfung oder die Rechtsdurchsetzung überhaupt an KI-Systeme delegiert werden? Wie lässt sich verhindern, dass Algorithmen den Einzelnen oder bestimmte Gruppen diskriminieren? Welche Rechte haben die Betroffenen, wenn ihnen ein Algorithmus basiertes Scoring existentielle Betätigungs- und Geschäftsfelder versagt? Inwieweit dürfen Arbeitgeber bei der Einstellung und Überwachung ihrer Arbeitnehmer auf KI-Systeme zurückgreifen?
h. Transparenz
Können Entscheidungsstrukturen in KI-Systemen transparent und nachvollziehbar dargestellt werden? Wäre der Einsatz von Verfahren zum Testen, der Auditierung oder Zertifizierung bei den genannten Entscheidungsverfahren sinnvoll, um zum Beispiel rechtsverletzende Diskriminierung zu adressieren. Können damit Transparenz und Erklärbarkeit der KI-Systeme erhöht werden, um das Black-Box-Problem zu bewältigen? Und wie können eine solche Offenheit gewährleistet und zugleich vertrauliche Daten geheim gehalten werden.
i. Rechtsfähigkeit
Ist es sinnvoll, einen Roboter oder ein KI-System für (teil-)rechtsfähig zu erklären? Welche vertragsrechtlichen Konsequenzen ergeben sich, wenn KI mit KI kontrahiert?
j. Selbstverpflichtungen und Standards
Ein weiterer Themenkomplex umfasst die Schaffung ethischer wie technischer Standards als auch Maßnahmen der Selbst- oder Ko-Regulierung bei der Entwicklung und Anwendung von KI. Wie kann den unterschiedlichen Anforderungen der verschiedenen Bereiche und Branchen Rechnung getragen werden?
6. Aktivitäten und Initiativen bezüglich KI
Die hier aufgeworfenen Herausforderungen werden mit der zunehmenden Verbreitung von KI-Systemen und Robotern an Brisanz gewinnen. Dennoch verfügt derzeit kein einziges Land über ein Rechtssystem, welches den Besonderheiten Rechnung trägt. Viele Länder haben damit begonnen, Strategien zur Förderung, Entwicklung und Nutzung von KI-Systemen zu entwickeln. Dabei liegt der Schwerpunkt zumeist auf der Forschung und Entwicklung, der Wissenschaftsförderung oder der technischen Standardisierung oder der Schaffung ethischer Standards, weniger auf den rechtlichen Herausforderungen.
a. Nationale Strategien
Die Bundesregierung hat 2018 sowohl eine Datenethik-Kommission als auch einen Digitalrat geschaffen und ihre KI-Strategie verabschiedet. Mit dem Bundeshaushalt 2019 stellt der Bund in einem ersten Schritt insgesamt 500 Mio. Euro für 2019 und bis einschließlich 2025 insgesamt 3 Mrd. Euro für die Umsetzung der Strategie zur Verfügung. Bestehende Kompetenzzentren sollen für KI-Forschung überregional weiterentwickelt und mit weiteren einzurichtenden Zentren zu einem nationalen Netzwerk von mindestens zwölf Zentren und Anwendungshubs ausgebaut werden. Durch 100 zusätzliche neue Professuren sollen eine breite Verankerung der KI an Hochschulen abgesichert werden. Angebote zur Beratung von Mittelstand und zur ganzheitlichen Beratung und Förderung von Gründungen sollen ausgebaut und der Aufbau von KI Observatorien auf europäischer und internationaler Ebene forciert werden.
Zudem hat die Bundesregierung angekündigt, einen Runden Tisch mit Datenschutzaufsichtsbehörden und Wirtschaftsverbänden einzuberufen, um gemeinsam Leitlinien für eine datenschutzrechtskonforme Entwicklung und Anwendung von KI-Systemen zu erarbeiten, und Best-Practice-Anwendungsbeispiele aufbereiten. Außerdem hat der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potentiale“ eingesetzt.
Daneben gibt es auch in Deutschland zahlreiche Selbstregulierungsinitiativen: wie die Advocacy-Organisation AlgorithmWatch, die über die gesellschaftlichen Auswirkungen automatisierter Entscheidungsfindung aufklären und Lösungsstrategien entwickeln will oder die Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik (RAILS). Sie hat das Ziel, die Diskussion um den gegenwärtigen und zukünftigen nationalen und internationalen Rechtsrahmen für Künstliche Intelligenz (KI) und Robotik in (rechts-)wissenschaftlicher Hinsicht mitzugestalten, regulatorischen Handlungsbedarf zu identifizieren und konkrete Handlungsempfehlungen zu erarbeiten.
b. Europäische Strategien
Auch auf europäischer Ebene kam es in den letzten zwei Jahren zu mehreren Initiativen. Das Europäische Parlament hat bereits Anfang 2017 eine Resolution mit Empfehlungen zu zivilrechtlichen Vorschriften im Bereich der Robotik veröffentlicht. Auch der Europäische Wirtschafts- und Sozialausschuss hat Ende Mai 2017 eine Stellungnahme zur KI vorgelegt hatte.
Die EU-Kommission hat 2018 zwei Mitteilungen vorgelegt, zunächst KI für Europa, COM(2018) 237 und einen weiteren Koordinierten Plan für KI, COM(2018) 795. Mit ihrem ersten Aufschlag stellte die EU-Kommission ein europäisches Konzept für KI vor, welches (1) die Förderung der technologischen und industriellen Leistungsfähigkeit der EU und die weitere Verbreitung von KI in der gesamten Wirtschaft, (2) die Vorbereitung auf sozioökonomische Veränderungen und (3) die Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens umfasst. Übergreifend sollen die privaten und öffentlichen Investitionen in KI von derzeit 4–5 Milliarden Euro pro Jahr bis Ende 2020 auf mindestens 20 Milliarden Euro pro Jahr gesteigert werden. Zum anderen hat die EU Kommission Mitte 2018 eine High-Level Group on Artificial Intelligence eingesetzt, die mit Unterstützung der European AI Alliance im April 2019 Ethikleitlinien für KI vorgelegt hat. Eine internationale Erweiterung dieses Pilotprojekts wurde angekündigt. Ebenso soll mit Hilfe weiterer Expertengruppen bis Mitte 2019 ein Leitfaden zur Auslegung der Produkthaftungsrichtlinie sowie einen Bericht über die Auswirkungen von KI auf den Haftungs- und Sicherheitsrahmen veröffentlicht werden.
c. Internationale Strategien
Die OECD-Mitglieder und sechs Partnerländer haben sich Ende Mai 2019 auf erste Grundsätze für den Umgang mit KI geeinigt. Danach soll sichergestellt werden, dass KI-Systeme stabil, sicher, fair und vertrauenswürdig arbeiten. Erarbeitet wurden die Grundsätze in einer Gruppe von über 50 Expertinnen und Experten aus Politik, Wissenschaft, Wirtschaft, Zivilgesellschaft, Technologie, Gewerkschaften und internationalen Gremien. Hieraus sollen in den kommenden Monaten praktische Leitlinien für die konkrete Umsetzung erarbeitet werden.
Vor allem auf internationaler Ebene sind in den letzten Jahren zahlreiche Initiativen, Firmenkonsortien und -allianzen oder private Institutionen entstanden, die es sich zur Aufgabe gemacht haben, ethische Prinzipien, best practices und Verhaltenskodizes für die Entwicklung und den Einsatz von KI-Systemen und Robotern zu entwickeln. Zu ihnen gehören “AI for Good”, das “AI Now Institute”, die “Association for Computing Machinery’s Committee on Professional Ethics”, das “Future of Life Institute”, Googles “AI Principles”, “The Institute of Electrical and Electronics Engineers (IEEE) Global Initiative on Ethics of Autonomous and Intelligent Systems”, “OpenAI”, das “Partnership on AI” sowie “The World Economic Forum’s Center for the Fourth Industrial Revolution”.
7. Fazit
Der Umfang des Regelungsbedarfs und die Möglichkeiten der Gesetzgebung sind derzeit noch nicht deutlich absehbar. Das liegt zum einen daran, dass das Gefahrenpotenzial der Anwendung von KI-Technologien aber auch die Regelungsnotwendigkeit zur Ermöglichung von KI noch bei weitem nicht umfassend bekannt ist. Zum anderen bedürfen zahlreiche Rechtsfragen der Klärung, um Änderungsbedarf bewerten und die Folgen möglicher Anpassungen abschätzen zu können. Hierzu bedarf es sicherlich eines interdisziplinären Diskurses.
Da die technischen Innovationen keine Grenzen kennen, ist zudem eine internationale Perspektive unerläßlich. Insofern sind die Initiativen auf EU oder OECD Ebene sehr zu begrüßen. Auch wenn eine vorschnelle, innovationshemmende Überregulierung von den politischen Akteuren vermieden werden sollte, ist dennoch sicherzustellen, dass das derzeitige „KI-Wettrüsten“ die Sicherheit der Technologieentwicklung nicht ihrem Tempo opfert. Bei allen Forschungs- und Entwicklungsvorhaben sind ethische wie rechtliche Fragen stets mitzudenken