Prof. Dr. habil. Jana Koehler «Künstliche Intelligenz im Spannungsfeld von Digitalisierung, Innovation, Hype und Zukunftsfantasien»

Über die Referentin:

Jana Koehler ist wissenschaftliche Direktorin des Forschungsbereichs Algorithmic Business and Production am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH (DFKI). Von Anfang Februar bis Ende Oktober 2019 war sie CEO des DFKI. An der Universität des Saarlandes hat sie den Lehrstuhl für Künstliche Intelligenz inne.

Koehler studierte Informatik und Wissenschaftstheorie an der Humboldt Universität in Berlin und promovierte an der Universität des Saarlandes. Von 1990 bis 1996 war sie Mitarbeiterin am DFKI und anschließend habilitierte sie an der Albert-Ludwigs-Universität Freiburg. Weitere berufliche Stationen waren die Schindler AG und das IBM Research Lab in Zürich. Von 2010 bis Anfang 2019 war sie Professorin für Informatik an der Hochschule Luzern.
Ihr Spezialgebiet sind KI Methoden für flexible und optimierte Fertigungs- und Geschäftsprozesse.

Künstliche Intelligenz im Spannungsfeld von Digitalisierung, Innovation, Hype und Zukunftsfantasien

Jana Koehler

Zusammenfassung: Der Vortrag führt in das Gebiet der Künstlichen Intelligenz sein und erklärt die wichtigsten KI-Begriffe und Technologien. Anhand anschaulicher Fallstudien werden Potentiale, Chancen, und Risiken aktueller Entwicklungen aufgezeigt und es wird ein Ausblick auf gesellschaftlich relevante Entwicklungen gegeben. Künstliche Intelligenz erweist sich nicht nur als Innovationstreiber der Digitalisierung, sondern auch als Schlüsseltechnologie, unsere Wirtschaft flexibler, nachhaltiger und widerstandfähiger in Bezug auf aktuelle und zukünftige Anforderungen zu gestalten. Der Fokus auf den Menschen, seine Verantwortung und seine Bedürfnisse ist dabei entscheidend für die erfolgreiche Positionierung im internationalen Wettbewerb. Deutschland nimmt in der Forschung mit Institutionen wie dem Deutschen Forschungszentrum für KI (DFKI) einen Spitzenplatz ein und deutsche Unternehmen gehören zu den Vorreitern bei der Anwendung von KI- Technologien im industriellen und medizinischen Umfeld.

1950 stellt der englische Mathematiker Alan Turing die Frage, ob menschliche Intelligenz durch einen Computer berechnet werden kann und schlägt auch gleich einen Test vor, mit dem die Intelligenz eines Computers im Wettbewerb mit einem Menschen testbar wird (Turing 1950).

The new form of the problem can be described in terms of a game which we call the ‘imitation game.’ It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman […] It is A’s object in the game to try and cause C to make the wrong identification. The object of the game for (B) is to help the interrogator. […] We now ask the question, ´What will happen when a machine takes the part of A in this game?’ […] These questions replace our original, ‘Can machines think?’ […] The new problem has the advantage of drawing a fairly sharp line between the physical and the intellectual capacities of a man.”

1956, nur wenige Jahre nach dem Erscheinen von Turings Artikel, treffen sich amerikanische Forscher am Dartmouth College an der amerikanischen Ostküste, um ein Forschungsprogramm zu initiieren, das der Frage nach einer intelligenten Maschine nachgehen soll. John McCarthy, einer der beteiligten Forscher, prägt den Namen für dieses Programm: Künstliche Intelligenz.

So umfassend und vielfältig wie das Forschungsgebiet, so unterschiedlich sind auch die Versuche, Intelligenz bzw. Künstliche Intelligenz zu definieren. Dabei fällt auf, dass für viele KI-Forscher, die Fähigkeit, eines Systems, selbstgestellte Ziele zu erreichen, als sehr entscheidend angesehen wird.

Die nachfolgende Abbildung zeigt eine Auswahl wichtiger aktueller Forschungsgebiete und Methoden in der KI und ordnet sie den Teilgebieten der Mathematik zu, auf denen diese Forschungsgebiete und Methoden wesentlich (aber nicht ausschließlich) beruhen.

 

 

Abbildung 1: Überblick über wichtige Methoden und Gebiete der Künstlichen Intelligenz sowie ihre mathematischen Grundlagengebiete

Einige dieser Gebiete, wie zum Beispiel das Wissenschaftliche Rechnen, das u.a. mit Hilfe von Computersimulationen Fragestellungen aus allen wissenschaftlichen Disziplinen beantworten kann, wurden zwar im ursprünglichen Vorschlag von 1955 bereits angedacht, hatten sich aber in der Vergangenheit als eigenständige wissenschaftliche Gebiete entwickelt. Erst in jüngster Zeit ergibt sich wieder eine stärkere Verbindung zu den Methoden der KI.

Andere Gebiete, wie die mathematische Optimierung und Statistik sind in der Mathematik angesiedelt, stellen aber grundlegende Methoden zur Verfügung, die für die KI gerade in jüngster Zeit sehr wichtig sind. Insbesondere haben sich innerhalb der letzten 20 Jahre in der KI-Forschung stark datengetriebene Methoden entwickelt, für die statistische und quantitative Methoden zur Entscheidungsunterstützung unabdingbar sind. Aus historischer Sicht und basierend auf dem Ansatz des rationalen Denkens waren Methoden der mathematischen Logik in der KI vor allem in den 1980er und 1990er Jahren sehr einflussreich, um zum Beispiel logische Kalküle als Grundlage rationaler Denkgesetze einzusetzen. In dieser Zeitspanne wurde in der KI sehr intensiv untersucht, inwieweit menschliches Wissen in mathematischer Logik, insbesondere der sehr einfachen Aussagenlogik oder auch in Teilen der Prädikatenlogik, dargestellt werden kann, und inwieweit menschliches Denken sich durch logische Regeln abbilden lässt.

Die Unschärfe menschlichen Denkens und die Komplexität der realen Welt hat einer rein Logik-basierten KI jedoch sehr schnell die Grenzen aufgezeigt. Einerseits wurden logische Kalküle oft zu komplex und waren damit auch für Berechnungen schwer handhabbar, wie z.B. Deontische oder Nichtmonotone Logiken, andererseits ließen sich für viele Probleme nicht wirklich überzeugende und in allen Situationen funktionierende Lösungen finden.

Mit der Entwicklung der datengetriebenen KI, die einerseits von den durch die Digitalisierung erzeugten, umfangreichen und diversen Datenmengen, aber auch von einer immer verfügbaren hohen Rechenleistung in Form des Cloud Computing über das Internet profitiert, rückten in den letzten Jahren vor allem die Methoden des Maschinellen Lernens in den Mittelpunkt. Dabei werden drei Formen von Lernen unterschieden:

  1. Beim Nicht-überwachten (oder auch unüberwachten) Lernen werden Algorithmen eingesetzt, die nach Mustern und häufig auftretenden Zusammenhängen in Daten suchen und Datensätze anhand ihrer Ähnlichkeit gruppieren. Dabei benötigen diese Algorithmen keine Beispiele, wie sie gruppieren sollen oder welche Daten welche Muster aufweisen, anhand derer sie zunächst trainiert werden müssen. Sie kommen immer dann zum Einsatz, wenn unklar ist, worin Ähnlichkeiten zwischen Daten bestehen könnten, da sie diese sehr gut aufspüren. Zum Beispiel kann ein solches Verfahren in einem Datensatz von Kunden diejenigen Gruppen identifizieren, die ähnliche Kaufgewohnheiten haben. Ebenso sind die Verfahren sehr gut geeignet, Anomalien und Unregelmäßigkeiten in Daten aufzuspüren.

  2. Das überwachte Lernen benötigt Trainingsdaten, in denen Daten als Paare von Eingabewerten und gewünschten Ausgabewerten vorliegen. Anhand dieser Daten können überwachte Lernalgorithmen die Funktion approximieren, die zu einem gegebenen Eingabewert den richtigen Ausgabewert berechnet. Besonders bekannt und erfolgreich ist zurzeit das Deep Learning, das gerichtete neuronale Netze mit sehr vielen verborgenen Schichten und Knoten verwendet und vor allem auch die Eingabeparameter selbständig aus den Eingabedaten bestimmt. Wird ein solcher Algorithmus zum Beispiel mit Bildern trainiert, die mit diversen Eingabeparametern beschrieben werden und jeweils als Ausgabewert das Objekt annotieren, das auf dem Bild dargestellt ist, dann können diese Algorithmen sehr zuverlässig in der Bilderkennung eingesetzt werden, um das dargestellte Objekt zu identifizieren.

  3. Das verstärkende Lernen erlaubt es Algorithmen durch aktives Experimentieren zu lernen. Dabei werden Aktionen in einer echten oder simulierten Umgebung ausgeführt, um ein konkretes vorgegebenes Ziel zu erreichen. Je nach Erfolg oder Misserfolg einer Aktion erhalten diese Algorithmen eine positive oder negative Rückmeldung aus der Umgebung, die ihnen hilft, die Erfolgsaussichten einer Aktion in einer bestimmten Situation besser einzuschätzen und zukünftig möglichst erfolgversprechende Aktionen zu bevorzugen. Ein autonomes Auto kann so zum Beispiel lernen, einzuparken, in dem es immer wieder versucht, eine Parklücke ohne Kollisionen zu erreichen. An diesem Beispiel wird sofort deutlich, dass das Lernen eher in einer simulierten Umgebung erfolgen sollte, da in der realen Umgebung zu viele Risiken vorhanden sind und fehlschlagende Aktionen echte Schäden verursachen können.

Alle Ansätze des maschinellen Lernens haben das Problem, dass sie nicht garantieren können, wie gut das gelernte System in einer Anwendung funktionieren wird. Eine große Herausforderung stellt dabei die Qualität der Trainingsdaten dar. Diese sollten eine repräsentative Verteilung der Daten in einer Anwendungsdomäne abbilden, aber oft ist diese Verteilung nicht bekannt oder schwer zu bestimmen. Werden Neuronale Netze auf Probleme aus einem Teil des Anwendungsbereichs angewandt, den sie in der Trainingsphase nicht oder nur unzureichend gesehen haben, dann sind fehlerhafte Ausgaben sehr häufig. Dieses Problem wird auch als Concept Drift bezeichnet. Da sich die Umwelt eines Systems immer ändern wird, ist ein wiederholtes Trainieren und wenn immer möglich, auch eine Überwachung eines möglichen Concept Drift notwendig. Ebenso können Neuronale Netze sehr leicht manipuliert werden, ohne dass es für den Menschen bemerkbar ist.

Neuronale Netze haben sich sehr bei der Spracherkennung bewährt und können heute brauchbare Ergebnisse in der Bildverarbeitung oder Sprachübersetzung liefern. Erfolgreich im Einsatz sind Logik-basierte Methoden zum Beispiel im Bereich der Ontologien und Wissensgraphen oder wenn komplexe Probleme auf simple aussagenlogische Formeln mit Millionen von logischen Variablen abgebildet werden. Ein typisches Beispiel für fokussierte Anwendungen, bei denen eine Vielzahl unterschiedlicher KI-Methoden inklusive Neuronaler Netze erfolgreich integriert wird, sind Spiele, wie zum Beispiel Schach oder Go, die immer sehr gern von KI-Forschern für die Entwicklung und das Testen ihrer Algorithmen herangezogen werden. Man spricht in diesem Zusammenhang oft von schwacher KI, also einem System, das dem Menschen vielleicht in einer Spezialaufgabe überlegen ist, d.h. besser Schach spielt, aber bei ganz anderen Aufgaben völlig versagt. Interessant ist dabei, dass sich die Methoden von Mensch und Maschine bei der Lösung dieser Spezialaufgaben nicht nur fundamental unterscheiden, sondern auch sinnvoll ergänzen und gegenseitig befruchten – eine Eigenschaft, die für die Anwendung von KI-Methoden in allen wissenschaftlichen Disziplinen spricht und uns vermutlich in der Zukunft weitere fundamentale Erkenntnisse in diesen Disziplinen erlauben wird.

Sprach- und bildbasierte Technologien haben einen sehr hohen Reifegrad erreicht und wir sehen bereits in einigen Anwendungsgebieten Systeme, die in der Lage sind, Ergebnisse zu erzeugen, die von menschlicher Leistung nicht mehr unterscheidbar sind oder diese sogar übertreffen. Durchbrüche in der Spracherkennung mit Deep Learning haben es ermöglicht, sprachgesteuerte Assistenzsysteme zu entwickeln, denen wir Aufträge erteilen können, z. B. im Navigationssystem des Autos, das übrigens den Weg mit Hilfe von KI-Suchalgorithmen berechnet. Ebenso können wir Fragen zu historischen oder aktuellen Ereignissen oder auch den unterschiedlichsten Wissensgebieten stellen, wie zum Beispiel an eine Alexa auf einem Amazon Echo Gerät.

In der Erforschung natürlicher und der Erschaffung künstlicher Intelligenz warten noch viele große Herausforderungen auf die KI-Forschung. Seit Jahrzehnten ungelöste Probleme sehr grundlegender Natur müssen geklärt werden, die ich als „die 4 großen A“ zusammenfassen und jeweils an einem Beispiel erklären möchte:

Abstraktion: Menschen können recht einfach Zusammenhänge auf unterschiedlichen Abstraktionsstufen begreifen, beschreiben und erklären. Für KI-Systeme ist ein solcher Wechsel bisher nur sehr wenig verstanden. Das gelernte Wissen in einem Neuronalen Netz ist in der Netzarchitektur bestehend aus bis zu Millionen Knoten und Kanten und den gelernten Kantengewichten repräsentiert – eine Darstellung, die für Menschen unverständlich bleibt und die Erklärbarkeit der Entscheidungen von Neuronalen Netzen bisher nicht ermöglicht. Um die numerische Darstellung des gelernten Wissens in natürlichsprachliche Begriffe abzubilden, müssen wir Abstraktionsprozesse verstehen und berechnen können.

Analogie: Zusammenhänge zwischen zunächst anscheinend nicht zusammenhängenden Dingen zu erkennen, ist eine der Fähigkeiten, die die Kreativität von Menschen ausmacht. Wie sagte Schopenhauer bereits: „Die Aufgabe ist nicht, zu sehen, was noch niemand gesehen hat, sondern zu denken, was noch niemand gedacht hat über das, was alle sehen.“

Argumentation: Entscheidungen nachvollziehbar zu begründen und anhand von soliden Fakten und Zielen zu rechtfertigen ist eine der Voraussetzungen, um in einem demokratischen Prozess zu Entscheidungen zu kommen, die für die Beteiligten als gut und gerecht empfunden werden können. Sich mit Argumenten auseinandersetzen zu können und diese in das eigene Weltbild zu integrieren, es gegebenenfalls zu revidieren, ist eine der Fähigkeiten, die Intelligenz ausmacht.

Alltagswissen: Erfolgreich den Alltag zu gestalten – von den Auswirkungen der grundlegenden physikalischen Gesetze in unserer Umwelt bis zu den wirtschaftlichen und sozialen Spielregeln einer Gesellschaft – ist eine unabdingbare Voraussetzung für die weitere erfolgreiche Entwicklung der Menschheit. Wollen KI-Systeme hier erfolgreich mitwirken, müssen sie Alltagswissen erwerben, verwenden und auch vergessen können.

Prof. Dr. habil. Jana Koehler