Special: Künstliche Intelligenz

2. Was verstehen wir unter KI?

KI umfasst weit mehr als reine Informatik, sie wird vielmehr durch die Neurowissenschaften, Psychologie, Mathematik, Philosophie, Kommunikationswissenschaften und auch der Linguistik geprägt. Die Informatik ist Mittel zum Zweck, welche die unterschiedlichen Aspekte der genannten Forschungsfelder zusammenbringt und deren Umsetzung und Erprobung ermöglicht. Auch wenn es keine allgemeingültige bzw. von allen Akteuren konsistent genutzte Definition von KI gibt, so wird der Begriff dennoch in Forschung und Entwicklung verwendet.

a. Definition von KI

KI umfasst die Automatisierung intelligenten Verhaltens und das Maschinelle Lernen. Sie simuliert menschliche Intelligenz mit Maschinen, insbesondere Computersystemen. Dies umfasst das Lernen, also die Erfassung von Informationen und Regeln für die Verwendung der Informationen, die Schlussfolgerung, also die Verwendung der Regeln, um ungefähre oder endgültige Schlussfolgerungen zu ziehen sowie die Selbstkorrektur. KI ist also der Versuch, Entscheidungsstrukturen des Menschen nachzubilden.

Eine derzeit gängige Art der Kategorisierung ist die Unterteilung in die sog. „schwache“ und „starke“ KI.

Die „schwache“ KI wird zur Lösung konkreter Anwendungsprobleme entwickelt und trainiert, wobei die entwickelten Systeme zur Selbstoptimierung fähig sind. Virtuelle persönliche Assistenten, wie Siri von Apple, sind eine Form der schwachen KI. Dazu werden auch Aspekte menschlicher Intelligenz nachgebildet und formal beschrieben bzw. Systeme zur Simulation und Unterstützung menschlichen Denkens konstruiert.

„Starke“ KI ist heute noch Vision. Sie ist auch bekannt als allgemeine KI, also ein System mit verallgemeinerten menschlichen kognitiven Fähigkeiten, welches – mit einer unbekannten Aufgabe konfrontiert – über genügend Intelligenz verfügt, um eine Lösung zu finden.

b. Funktionsweise von KI

KI kann rein softwarebasiert arbeiten (z.B. bei Suchmaschinen) oder in Hardware integriert sein (z.B. in Robotern). Sie umfasst ein umfangreiches Set an Methoden, Verfahren und Technologien. Kern eines jeden KI-Systems ist ein sogenanntes Modell, das für eine bestimmte Fragestellung modelliert ist, z.B. um bei bestimmten Entscheidungen zu unterstützen oder Vorhersagen zu treffen. Eine KI ist immer nur so gut, wie die Art ihrer technischen Wissensrepräsentation. Hierbei gibt es zwei grundlegende methodische Ansätze, die symbolverarbeitende und die neuronale KI.

Die symbolische KI gilt als der klassische Ansatz. Dieser beruht auf der Idee, dass menschliches Denken unabhängig von konkreten Erfahrungswerten von einer übergeordneten logisch-begrifflichen Ebene her rekonstruiert werden kann (Top-down-Ansatz). Wissen wird demnach in abstrakten Symbolen repräsentiert, wozu auch die Schrift- und Lautsprache gehören. Maschinen lernen diese Symbole auf Basis von Algorithmen zu erkennen, zu verstehen und zu verwenden. Das intelligente System bezieht seine Informationen dabei aus sogenannten Expertensystemen. In diesen werden die Symbole und Informationen auf eine spezifische Art sortiert – meistens in logischen „Wenn-Dann-Beziehungen“. Das intelligente System kann auf diese Wissensdatenbanken zugreifen und die dort hinterlegten Informationen mit seinem Input vergleichen.

Klassische Anwendungen der symbolischen KI sind die Textverarbeitung und Spracherkennung, aber auch andere logische Disziplinen wie die Beherrschung eines Schachspiels zu finden. Expertensysteme sind fast immer beschränkt auf ein Spezialgebiet, z. B. einen speziellen Bereich der Medizin. Die Leistung symbolischer KI steht und fällt mit der Qualität der Expertensysteme. Heute zeichnen sich jedoch immer deutlicher die Grenzen der symbolischen KI ab. Denn egal, wie komplex das Expertensystem ist, die symbolische KI bleibt verhältnismäßig unflexibel. Mit Ausnahmen, Variation oder unsicherem Wissen kann das streng regelbasierte System nur schwer umgehen. Außerdem ist die symbolische KI zu selbstständigem Wissenserwerb nur sehr begrenzt fähig.

Die neuronale (auch: konnektionistische oder subsymbolische) KI verabschiedet sich vom Prinzip der symbolischen Wissensrepräsentation. Ähnlich wie beim menschlichen Gehirn wird das Wissen stattdessen in winzige Funktionseinheiten, sog. Künstliche Neurone, segmentiert. Die Informationsverarbeitung erfolgt „bottom-up“ über einzelne künstliche Neurone, die sich in größeren Gruppen anordnen und gemeinsam ein künstliches neuronales Netzwerk bilden. Diese unzähligen künstlichen Neuronen sind in Schichten übereinander platziert und über simulierte Leitungen miteinander verbunden.

Die oberste Schicht oder Input-Schicht funktioniert wie ein Sensor: Sie nimmt den Input – etwa Text, Bilder oder Geräusche – in das System auf. Von dort aus wird der Input nach bestimmten Mustern durch das Netzwerk gereicht und mit bisherigem Input verglichen. Über die Input-Schicht wird das Netzwerk also gefüttert und trainiert. Die tiefste Schicht oder Output-Schicht dagegen hat meist nur wenige Neuronen – eines für jede zu klassifizierende Kategorie. Soll ein neuronales Netz also beispielsweise Bilder einer Kategorie Hund erkennen oder die Rasse bestimmen, dann werden zunächst viele unterschiedliche, vordefinierte Bilder eingespeist, bei dem die KI hinterher prüfen kann, ob sie mit ihrer Analyse richtig lag oder nicht.

Neuronale Netze werden also mit Trainingsdaten in unterschiedlichen Lernverfahren gefüttert. Gegenwärtig befinden sich vor allem tiefe neuronale Netze in der Anwendung, was bedeutet, dass sie mit mehr als den genannten zwei Schichten arbeiten (sog. „Deep Learning“). Die Zwischenschichten liegen hierarchisch übereinander – in manchen Systemen werden Informationen über Millionen von Verbindungen nach oben gereicht, wobei von Schicht zu Schicht immer komplexere Strukturen erkannt werden.

Die überwältigende Mehrzahl der jüngsten KI-Erfolge gehen auf das Konto solcher neuronalen Netzwerke. In der Innovationsforschung und Wirtschaft setzt man trotz der zum Teil sehr zeitaufwendigen Verfahren auf die außerordentlichen Leistungen dieser selbstlernenden Systeme – sei es bei der Sprach- oder Gesichtserkennung oder beim autonomen Fahren.

Diese sehr dynamische, anpassungsfähige und vielversprechendste Disziplin des maschinellen Lernens erreichet jedoch schnell ein Level an Komplexität, bei dem selbst die IT-Wissenschaftler, die die Netze entwickeln, nicht mehr genau sagen können, wie die KI letztlich auf ein bestimmtes Ergebnis gekommen ist („Black-Box“-Phänomen). Das löst insbesondere bei Kritikern von KI Unbehagen aus.

c. Entwicklung der KI

Einer der wichtigsten Visionäre und Theoretiker war der britische Mathematiker Alan Turing (1912-1954). Bereits 1936 bewies er, dass eine universelle Rechenmaschine (sog. „Turing-Maschine“) fähig sei, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar – also in endliche wohldefinierte Einzelschritte zerlegbar – können diese auf einer solchen Maschine ausgeführt werden.

Turing wird aber auch wegen einer anderen Idee viel zitiert: In seinem berühmten Artikel „Computing Machinery and Intelligence“ aus 1950 beschreibt er in dem sog. „Turing Test“. Danach ist einer Maschine dann KI zuzuschreiben, wenn ein menschlicher Gesprächspartner in einer Unterhaltung über eine elektrische Verbindung nicht eindeutig identifizieren kann, ob sein Gegenüber Mensch oder Maschine ist. Der Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Erfasst wird nur das reine Denken.

Der eigentliche Begriff wurde 1956 von John McCarthy, einem amerikanischen Informatiker anlässlich der Dartmouth Conference geprägt, wo er mit Vertretern verschiedener Disziplinen (Computerexperten, Informationstheoretiker, Linguisten) neue Methoden der Computerprogrammierung diskutierte. Sie waren ebenfalls der Auffassung, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. McCarthy schlug dafür den Begriff „Künstliche Intelligenz“ vor. Mit „Logic Theorist“ gelang es den Forschern damals, mehrere Dutzende mathematische Lehrsätze zu beweisen und das erste KI-Programm der Welt zu schreiben.

Zwar wurden in der Folgezeit weitere Programme wie z. B. auch der erste „Chatbot“ „ELIZA“ vom Informatiker Joseph Weizenbaum erfunden: erstmals wurde es möglich, Maschinen eine Form des strukturellen Denkens beizubringen und diese zur Lösung von Problemen zu nutzen. Aber wesentliche Fortschritte oder gar der große Wurf blieben aus. In der Folgezeit spricht man daher auch vom sog. KI-Winter. Aufgrund der ausbleibenden Erfolge wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt und die Forscher zogen sich zurück und agierten in Spielzeugwelten ohne praktischen Nutzen.

Erst 1996 erreichte die KI den größten Durchbruch – zumindest in der öffentlichen Wahrnehmung – als es IBM gelang, mit dem Computer Deep Blue den Weltmeister Garri Kasparow in seiner Königsdisziplin Schach zu schlagen.

Ein weltweiter KI-Boom ist seit etwa 2010 zu verzeichnen. Technologiesprünge bei der Hard- und Software haben der KI den Weg in das tägliche Leben gebahnt. Für den Siegeszug von KI sind vor allem mehr Daten, billigere Speicherkapazitäten und eine ständig höhere Rechenleistung verantwortlich. Sie ermöglichen es Unternehmen, KI-Verfahren in immer komplexeren Konfigurationen einzusetzen. Leistungsstarke Prozessoren und Grafikkarten in Computern, Smartphones und Tablets ermöglichen es auch Verbrauchern auf KI-Programme zuzugreifen. Insbesondere Sprachassistenten erfreuen sich großer Beliebtheit: Apples „Siri“ kommt 2011 auf den Markt, 2014 stellt Microsoft die Software „Cortana“ vor und Amazon präsentiert 2015 Amazon Echo mit dem Sprachdienst „Alexa“.